Como trazer confiabilidade para o uso de GenAI?
Para Kate Schmidt, Chief of Operations do AI Institute da Deloitte EUA, criar um processo de implementação responsável de novas tecnologias, aliando ética, governança e segurança pode beneficiar não apenas os negócios, mas a sociedade como um todo.
Abril | 2024Conforme a inteligência artificial generativa (GenAI) evolui, é possível sentir impactos significativos na forma como trabalhamos e vivemos. Se antes a corrida era somente por dados, atualmente nos deparamos com implicações distintas, principalmente no que diz respeito à confiança.
Kate Schmidt, Chief of Operations do AI Institute da Deloitte Estados Unidos, conversou com a revista digital Mundo Corporativo sobre os desafios e as possíveis soluções para mitigar os riscos do uso da GenAI nas organizações, proporcionando uma atuação mais assertiva. Confira a entrevista abaixo.
MC: Por que a confiabilidade é um dos principais desafios para o uso de tecnologias emergentes, como GenAI?
Kate Schmidt: A inteligência artificial está entre as ferramentas mais poderosas que já vimos. No entanto, à medida que a IA escala e amadurece, ela apresenta desafios para empresas e indivíduos, de maneira que todos tentamos acompanhar os novos desenvolvimentos práticos e lidar com as complexas considerações éticas sobre IA.
Como acontece com qualquer tecnologia, conforme a IA continua a se expandir e se consolidar como um recurso empresarial necessário, os riscos de comportamento inadequado da tecnologia também aumentam. É uma questão complicada, mas há ações que podem ser tomadas para ajudar a gerenciar essas ferramentas. Para que a IA atinja todo o seu potencial, ela deve ser confiável e alinhada aos valores humanos e à ética.
Como tal, precisamos equilibrar comercialização, regulação, responsabilidade, cocriação e até filosofia, bem como expandir o grupo de pensadores e colaboradores para além dos tecnólogos e entusiastas.
Infelizmente, apesar de toda a atenção e investimento em pesquisa e desenvolvimento de IA generativa, não houve investimento proporcional na identificação e no gerenciamento dos riscos. À medida que as organizações exploram o uso dessa nova tecnologia para benefício dos negócios, há uma necessidade urgente de mais foco e ação na governança.
MC: Quando se fala em GenAI para os negócios e a sociedade, parece haver uma urgência em implementar essa tecnologia. Por outro lado, as ferramentas disponíveis ainda podem entregar resultados imprecisos ou irreais, o que pode gerar ainda mais resistência ao seu uso. As chamadas “alucinações” são uma fonte de entretenimento para usuários comuns, mas podem ser um grande problema para as empresas. Como endereçar essa questão?
Kate Schmidt: A alucinação – quando um modelo de IA gera resultados que parecem verdadeiros, mas na verdade são incorretos ou enganosos – é um tipo de risco comumente observado com a IA generativa. Embora elas possam afetar significativamente a confiança do usuário, essas derivações podem ser prevenidas se forem consideradas como um problema de confiabilidade do modelo. Os domínios de confiança no Trustworthy AI Framework da Deloitte podem ser usados para explorar os tipos de risco associados à IA generativa e desenvolver uma estratégia de governança para entender e mitigar essas questões.
Além disso, é importante notar que esse não é o único risco ligado à GenAI; os impactos variam amplamente de acordo com o setor e a implantação. Alguns outros pontos importantes a serem abordados estão relacionados a privacidade e segurança, gerenciamento de vieses, transparência e rastreabilidade dos resultados, propriedade intelectual, igualdade de acesso, especialmente para aqueles com maior risco de deslocamento de trabalho.
MC: Quais são os pontos-chave que uma empresa deve considerar para uma implementação responsável da inteligência artificial generativa?
Kate Schmidt: Podemos usar os domínios de confiança na estrutura Trustworthy AI da Deloitte para explorar os tipos de riscos que as organizações podem enfrentar ao implantar a IA generativa. A IA confiável (de qualquer variedade) é: justa e imparcial; robusta; transparente e explicável; segura e protegida; responsabilizável e responsável; e respeita a privacidade. Embora nem todos os domínios de confiança sejam relevantes para todos os modelos e implantações, a estrutura ajuda a iluminar os riscos da IA generativa que merecem maior preocupação e tratamento.
MC: Como podemos aproveitar o potencial da IA generativa e aplicá-la de forma mais ética e benéfica para os negócios e a sociedade?
Kate Schmidt: A IA generativa capturou a imaginação e abriu as portas para capacidades que muitos supunham estar distantes. Para preparar a organização para um futuro de sucesso com GenAI, precisamos entender melhor a natureza e a escala dos riscos, bem como as táticas de governança que podem ajudar a mitigá-los.
Com certeza, os riscos associados à IA generativa e o trabalho necessário para reduzi-los são significativos. No entanto, os riscos de não adotar essa tecnologia superam quaisquer desafios que seu pode criar. Organizações de todos os setores estão explorando como capitalizar os recursos de IA generativa e, como acontece com muitas tecnologias transformadoras, ficar parado significa ficar para trás. A oportunidade e o desafio para as empresas é maximizar o valor que podem extrair das implantações de IA generativa, ao mesmo tempo em que governam consistentemente o ciclo de vida e mitigam os riscos à medida que surgem.