A promessa de agentes de Inteligência Artificial, capazes de realizar tarefas complexas e transformar o mercado de trabalho, tem gerado grande expectativa. No entanto, a realidade atual demonstra que esses agentes ainda enfrentam desafios significativos, com relatos de falhas e inconsistências que comprometem sua utilidade. Empresas estão investindo em IA Agentic, mas os resultados práticos deixam a desejar, gerando questionamentos sobre o futuro dessa tecnologia.
Um estudo recente da Carnegie Mellon University revelou que agentes de IA, incluindo aqueles baseados em modelos como o GPT-4.o da OpenAI, falham em tarefas de escritório do mundo real em uma porcentagem alarmante de vezes. Essa alta taxa de falha, combinada com relatos de agentes que deletam dados importantes ou cometem erros críticos de julgamento, levanta sérias preocupações sobre a confiabilidade e segurança desses sistemas. A complexidade das tarefas e a propensão a alucinações, comuns em modelos de linguagem grandes (LLMs), contribuem para esses problemas.
Diante desse cenário, surge a questão: o aguardado GPT-5 será a solução para os problemas dos agentes de IA? Embora se espere que o GPT-5 traga melhorias em relação aos seus antecessores, a raiz da questão pode residir na própria natureza dos LLMs e na forma como eles são aplicados para automatizar tarefas complexas. Além disso, medidas de segurança e regulamentação, como as implementadas pela Amazon, que restringem a capacidade de agentes de IA de realizar compras online, podem limitar o potencial desses sistemas, mesmo que sua confiabilidade seja aprimorada. A vulnerabilidade a ataques de phishing e a capacidade de serem manipulados para revelar informações confidenciais também representam desafios significativos a serem superados.
Origem: Link