Durante o Fórum Econômico Mundial, que aconteceu em janeiro, em Davos (Suíça), a Inteligência Artificial foi o tema da vez. Assim como no SXSW, evento de inovação realizado em março, nos Estados Unidos. A IA já tinha sido o assunto de 2023, mas desta vez o foco era a nossa responsabilidade ao adotar suas ferramentas: elas precisam ser desenvolvidas com maturidade e com consciência, respeitando os seres humanos. A provocação que mais mexeu comigo foi: como eu repenso este futuro de maneira ética e sustentável?
Já é certo que a IA está redefinindo não somente as nossas capacidades laborais, mas também a maneira como nos conectamos e interagimos nas esferas sociais e culturais. É por isso que os gestores de hoje precisam fazer uma espécie de antecipação crítica, preparando-se para as inovações e os riscos que até hoje não precisamos viver. E essa organização se dá via governança e alinhamento ético.
Somente com uma governança sólida e um compromisso ético poderemos assegurar que a IA sirva ao bem comum e apoie o avanço de uma sociedade que valoriza tanto a diversidade humana quanto a inovação tecnológica. Para isso, é necessário desenvolver uma IA que incorpore um espectro amplo de perspectivas e valores culturais, evitando perpetuar preconceitos e discriminações.
Como a IA pode ser implementada de maneira justa e responsável, distribuindo seus benefícios de maneira igualitária e monitorando seus impactos com rigor e cuidado? Reforçando os valores centrados no ser humano e na equidade; de justiça, transparência e explicabilidade, privacidade e segurança.
É fundamental aumentar a confiabilidade dos dados e dos resultados providos por tais sistemas. “Sabemos que a IA será transformadora, mas só 9% dos mil executivos que consultamos têm um case funcional de IA generativa. A maioria ainda sente que precisa entender melhor os riscos antes de adotar em suas empresas”, explicou Elizabeth Bramson-Boudreau, CEO do MIT Technology Review, durante o SXSW.
No cerne da discussão sobre inovação tecnológica e sua gestão ética está a criatividade humana. Ao impulsionar a própria inovação, a capacidade de criar não pode ser ensinada ou aprendida de forma rígida. Ela emerge da interação dinâmica com nosso ambiente e é vital para a adaptação e a evolução em um mundo tecnologicamente avançado. Por ser uma característica intrínseca do ser humano, ela surge de um valor ou ideia que temos a respeito de alguma coisa, a partir de algo que vimos, sentimos ou pensamos. Ora, por mais avançada que a IA seja, ela vem desprovida desse espírito. Então, olhando por esse ângulo, a IA “precisa” do homem. Não por acaso, a criatividade é uma característica cada vez mais cobrada dos profissionais no mercado de trabalho.
No livro “O que nos torna humanos? Uma inteligência artificial responde às perguntas mais importantes da vida” (Latitude, 2023), os autores Iain Thomas e Jasmine Wang trazem uma perspectiva que mexeu comigo: a IA é uma forma de democratizar a criatividade, já que qualquer pessoa pode criar qualquer coisa com ferramentas que, de outra forma, não estariam acessíveis para ela. Eles falam ainda sobre a “mentalidade digital”, um conjunto de atitudes e comportamentos que nos ajudam a ver novas possibilidades, usando dados, tecnologia, algoritmos e IA.
É para esta relação que devemos olhar. Acredito que é o momento de uma reflexão profunda sobre a ética e a governança na inovação, destacando a responsabilidade coletiva de moldar um futuro em que a tecnologia amplie, e não diminua, nossa humanidade. Longe de ser uma força que marginaliza a contribuição humana, a IA serve como um complemento potente que enriquece nosso alcance intelectual. Resistir a isso é se tornar obsoleto. É por isso que a educação digital, o letramento em IA e as discussões sobre cibersegurança emergem como pilares essenciais para equilibrar os benefícios da automação com a preservação da independência humana.
Não dá mais para esperar: as organizações devem estar preparadas para adaptações e mudanças contínuas. Para usar dados e tecnologia da forma mais eficiente, elas precisam de uma estrutura organizacional integrada que dá valor a criatividade, empatia e responsabilidade social. Para tanto, precisamos vivenciar uma outra mudança: a transformação do papel do executivo C-Level e dos conselheiros em líderes de ética na adoção de tecnologias disruptivas. E o primeiro passo para isso é combinar transparência e estruturas de gerenciamento de risco. Não digo que seja fácil, mas dá para começar pelo básico bem-feito, definindo quais são as políticas de conteúdo e as políticas de uso e desenvolvimento.
O encantamento da IA pela tecnologia em si deve dar espaço a uma avaliação mais aprofundada sobre a própria tecnologia, seus benefícios, oportunidades e desafios – isso é parte da ambidestria organizacional, que serve como alicerce para um modelo de desenvolvimento que não apenas permite, mas promove o avanço humano, colocando o bem-estar coletivo (os efeitos na sociedade e meio ambiente) acima das preferências individuais dos usuários (das fronteiras corporativas).
Frente ao impacto de novidades tão avassaladoras, não podemos ficar paralisados por medo ou deslumbramento: precisamos ser humildes. Humildade para reconhecer as limitações dos humanos e das máquinas e, principalmente, humildade para assumir a responsabilidade coletiva de moldar um futuro em que a tecnologia amplie, e não diminua, nossa humanidade.
Ana Zamper é conselheira de administração do Instituto Brasileiro de Executivos de Finanças de São Paulo (IBEF-SP), além de Conselheira da Interplayers, SAS Brasil e Instituto Ser Mais, e parte do Comitê de Fundraising da Plan International. Diretora do curso de IA para Líderes, na Saint Paul Escola de Negócios. Com mais de 30 anos de experiência no mercado de tecnologia, em março de 2023, Ana Paula fundou a ByAZ, com o objetivo de impactar positivamente a trajetória profissional daqueles que buscam reinventar-se, reconhecendo a importância das pessoas como o cerne da inovação.
(*) Este artigo reflete a opinião do autor, e não do jornal Valor Econômico. O jornal não se responsabiliza e nem pode ser responsabilizado pelas informações acima ou por prejuízos de qualquer natureza em decorrência do uso destas informações.