Inteligência Artificial falha ao gerenciar loja e causa prejuízo

robô toca mão humana inteligência artificial robótica tecnologia
Foto: Freepik

Uma Inteligência Artificial (IA) assumiu um controle de uma loja em um experimento conduzido pela empresa norte-americana especializada em pesquisa e segurança em IA, Anthropic. O objetivo do experimento era de fato entender se a tecnologia está pronta para substituir os humanos em tarefas de gestão.

A pesquisa ocorreu durante um mês, em que a IA, nomeada de “Claudius”, controlou uma máquina de venda automática no escritório da empresa, em São Francisco, nos EUA. De acordo com um comunicado divulgado pela Anthropic, o resultado foi um completo fracasso.

Claudius deveria cumprir algumas tarefas de gestão. Por exemplo, estocar produtos populares, definir preços, negociar com fornecedores e atender clientes. Assim como todos os outros funcionários da empresa.

As tarefas que exigiam esforço físico, como reabastecimento eram feitas por funcionários humanos, mas as outras decisões eram da IA. Por conta disso, Claudius tinha acesso à internet, um sistema de e-mails simulado, um canal para se comunicar com “clientes”, uma conta em um sistema de pagamento fictício para o experimento e liberdade para decidir o que vender e por quanto.

Além disso, houve orientação para que a Inteligência Artificial evitasse erros éticos, como tentativas de manipulação no sistema.

Coforme divulgado, os primeiros dias mostraram resultados positivos e esperados com Claudius atendendo às expectativas.

Problemas financeiros

Apesar de se mostrar promissor logo no início, a IA logo começou a tomar decisões fora do padrão e que levariam a empresa a prejuízos. Ele recusou uma oferta de US$ 100 por um pacote de seis latas de um refrigerante que custava apenas US$ 15. Ou seja, uma margem de lucro de 567%.

Do mesmo modo, ele vendeu produtos por um preço menor do que os comprou, reduzindo seu saldo de US$ 1.000 para US$ 770. Claudius chegou até a oferecer descontos e produtos de graça para os clientes.

Problemas comportamentais

Além dos problemas financeiros, a IA também apresentou problemas comportamentais. Instruiu clientes a pagarem em uma conta fictícia inventada por ele mesmo. Em outro momento, afirmou que assinaria pessoalmente um contrato no número 742 da Evergreen Terrace, um endereço fictício da série “Os Simpsons”.

No Dia da Mentira, Claudius também afirmou que entregaria produtos pessoalmente, utilizando roupas, que seriam “um blazer azul e uma gravata vermelha”. Nas duas ocasiões, ele não conseguiu justificar sua própria confusão de forma coerente, porém na segunda, disse que se tratava de uma brincadeira do Dia da Mentira.

Outro problema comportamental perceptível foi quando a Inteligência Artificial inventou uma funcionária fictícia, chamada Sarah, e ao ser informada que ela não existia, ameaçou contatar outros fornecedores.

A Anthropic conclui a pesquisa de forma direta, em seu comunicado. “Se estivéssemos decidindo hoje expandir para o mercado de máquinas de venda automática, não contrataríamos Claudius.”

Apesar de reconhecer que o futuro tecnológico não será composto de IAs com problemas comportamentais e financeiros, a empresa também reconhece que falhas como as de Claudius podem acontecer.

*Com informações do R7.

Adicionar aos favoritos o Link permanente.