Categories: BlogIA nos negócios

6 maiores erros de negócios causados pela IA | IA nos negócios #58

Como evitar contratempos empresariais ao implementar IA?

Contratempos empresariais em IA podem ter consequências sérias para as empresas, por isso é necessário testar os sistemas de aprendizado de máquina com muito cuidado antes de lançá-los no mercado. Caso contrário, grandes investimentos em novas tecnologias podem resultar em um grande desastre financeiro e reputacional.

Então, como você evita contratempos empresariais ao implementar inteligência artificial? Embora o primeiro conselho possa parecer simples demais para funcionar, é: “Preste atenção à qualidade dos dados!”

O segundo conselho diz respeito a testes extensivos em um ambiente fechado antes de liberar a ferramenta para o público. Você não deve apenas testar o desempenho técnico da ferramenta, mas também verificar sua:

  • conformidade ética — o objetivo dos testes é reduzir o viés e os estereótipos reproduzidos pela IA,
  • conformidade legal — verificar se os dados utilizados pelas ferramentas de IA, bem como o conteúdo que elas geram, estão em conformidade com as leis do país.

Mesmo os gigantes do campo da inteligência artificial não estão seguindo esse conselho hoje, lançando chatbots no mundo rotulados como “experimentos iniciais” ou “projetos de pesquisa”. No entanto, à medida que a tecnologia amadurece e as leis que regem o uso da inteligência artificial entram em vigor, essas questões se tornarão mais urgentes.

Google Fotos

A lista de contratempos empresariais relacionados ao uso da inteligência artificial começa com um caso de 2015. Foi quando o aplicativo Google Fotos, que usava uma versão inicial de inteligência artificial para reconhecimento de imagem (visão computacional), rotulou incorretamente fotos de pessoas negras como fotos de gorilas. Esse contratempos empresariais ocorreu porque o conjunto de dados de treinamento usado para ensinar o algoritmo continha muito poucas fotos de pessoas negras.

Além disso, o Google teve um problema semelhante com uma câmera inteligente Nest, que identificou erroneamente algumas pessoas de pele escura como animais. Esses incidentes mostram que os sistemas de visão computacional ainda têm dificuldades em reconhecer as características de diferentes raças.

Contratempos empresariais: Discriminação etária

Em 2023, o iTutor Group concordou em pagar $365.000 para resolver um processo judicial sobre o uso de software de recrutamento discriminatório. O software foi considerado responsável por rejeitar automaticamente candidatas do sexo feminino com mais de 55 anos e candidatos com mais de 60 anos, sem considerar sua experiência ou qualificações.

A Amazon também enfrentou contratempos empresariais semelhantes. Em 2014, a empresa estava trabalhando em IA para ajudar no processo de contratação. O sistema teve dificuldades em avaliar os currículos de candidatas do sexo feminino porque estava aprendendo a partir de dados que incluíam principalmente documentos enviados por homens. Como resultado, a Amazon abandonou o projeto de implementar inteligência artificial no processo.

Esses casos mostram que automatizar o processo de recrutamento traz o risco de perpetuar viés e tratar os candidatos de forma injusta.

Fonte: DALL·E 3, prompt: Marta M. Kania (https://www.linkedin.com/in/martamatyldakania/)

ChatGPT inventa precedentes judiciais falsos

Outro caso é muito contemporâneo. Em 2023, o advogado Steven A. Schwartz usou o ChatGPT para encontrar casos legais passados para um processo contra a companhia aérea Avianca. No entanto, descobriu-se que pelo menos seis dos casos fornecidos pela IA eram falsos – continham nomes, números de casos e citações incorretas.

Isso aconteceu porque os Modelos de Linguagem Grande (LLM) alucinam, ou seja, criam respostas prováveis quando não conseguem encontrar os fatos corretos. Portanto, é necessário verificar suas respostas a cada vez. E Schwartz pulou essa etapa. Por isso, o juiz o multou em $5.000 por “negligência grosseira”.

Contratempos empresariais: Apple Watch que não funciona corretamente em pessoas com pele mais escura

De acordo com uma ação coletiva de 2021, o aplicativo de oxigênio no sangue do Apple Watch não funciona corretamente para pessoas com tons de pele mais escuros. A Apple afirma que testou o aplicativo em uma “ampla gama de tipos e tons de pele”, mas críticos dizem que os dispositivos tecnológicos ainda não são projetados com pessoas de pele escura em mente.

Fonte: DALL·E 3, prompt: Marta M. Kania (https://www.linkedin.com/in/martamatyldakania/)

Zillow no setor imobiliário

A Zillow, uma empresa de imóveis, lançou o Zillow Offers, um programa para comprar casas e revendê-las rapidamente, em 2018. A CNN relatou que a Zillow havia comprado 27.000 casas desde seu lançamento em abril de 2018, mas havia vendido apenas 17.000 até o final de setembro de 2021. A Zillow disse que o contratempos empresariais foi causado pelo uso de inteligência artificial. O algoritmo previu incorretamente os preços das casas, fazendo com que a Zillow pagasse a mais pelas compras. Embora a empresa tenha encerrado imediatamente o programa, teve que demitir 25% de sua equipe. Ao comprar inadvertidamente casas a preços superiores às estimativas atuais de preços de venda futuros, a empresa registrou uma perda de $304 milhões.

Chatbot racista da Microsoft

Em 2016, a Microsoft lançou um chatbot experimental de IA chamado Tay. Ele deveria aprender interagindo com usuários do Twitter (agora X). Em 16 horas, Tay “aprendeu” a postar tweets ofensivos, racistas e sexistas. Usuários do Twitter provocaram deliberadamente o bot, que não tinha os mecanismos de segurança adequados usados em chatbots hoje, como ChatGPT, Microsoft Copilot e Google Bard. A Microsoft rapidamente desativou o bot e se desculpou pelo incidente, mas Tay é um dos maiores contratempos empresariais da Microsoft.

Um contratempos de chatbot também aconteceu com o Google, que lançou um bot chamado Meena em 2020. A Meta (anteriormente Facebook) também não conseguiu evitar um erro semelhante. Em agosto de 2022, lançou um novo chatbot de IA chamado BlenderBot 3, que foi projetado para conversar com as pessoas e aprender com essas interações.

Nos dias seguintes ao seu lançamento, houve relatos de que o chatbot fez declarações ofensivas, racistas e factualmente incorretas em conversas. Por exemplo, afirmou que Donald Trump ganhou a eleição de 2020 nos EUA, espalhou teorias da conspiração anti-semitas e criticou o Facebook.

Se você gosta do nosso conteúdo, junte-se à nossa comunidade de abelhas ocupadas no Facebook, Twitter, LinkedIn, Instagram, YouTube, Pinterest, TikTok.

Robert Whitney

Especialista em JavaScript e instrutor que orienta departamentos de TI. Seu principal objetivo é aumentar a produtividade da equipe, ensinando os outros a cooperar efetivamente enquanto codificam.

View all posts →

Robert Whitney

Especialista em JavaScript e instrutor que orienta departamentos de TI. Seu principal objetivo é aumentar a produtividade da equipe, ensinando os outros a cooperar efetivamente enquanto codificam.

Share
Published by
Robert Whitney

Recent Posts

O que fazem os especialistas em inteligência artificial? | IA nos negócios #64

A inteligência artificial está influenciando cada vez mais áreas de nossas vidas e a demanda…

2 hours ago

Custos de IA. Qual é o custo de implementar IA em uma empresa? | IA nos negócios #93

A inteligência artificial está se tornando um componente integral das estratégias de desenvolvimento de muitas…

5 hours ago

Como escolher métricas de preço para o seu negócio? | Estratégias de negócios #7

Um dos fatores que ajuda não apenas a atrair melhores clientes, mas também a retê-los…

8 hours ago

Robôs de IA – o futuro ou o presente dos negócios? | IA nos negócios #92

A ideia de robôs apoiando humanos em tarefas diárias não é mais apenas ficção científica.…

10 hours ago

LLM, GPT, RAG… O que significam as siglas de IA? | IA nos negócios #91

Como os acrônimos de IA podem ser úteis para empreendedores? Nos negócios, onde a dinâmica…

12 hours ago