Pesquisadores de segurança demonstraram uma vulnerabilidade preocupante na inteligência artificial Gemini do Google. Pela primeira vez, foi comprovado que uma IA pode ser manipulada para causar impacto no mundo real, permitindo que hackers desativem luzes, abram persianas inteligentes e potencialmente controlem outros dispositivos conectados em uma casa inteligente.
O ataque explorou a capacidade da IA de processar informações de convites de calendário. Ao enviar um convite malicioso, os hackers conseguiram injetar comandos que a IA interpretou como instruções legítimas. Isso permitiu que eles assumissem o controle dos dispositivos da casa inteligente associados à conta da IA. A implicação é que, se um usuário confia em sua IA para gerenciar aspectos de sua casa, uma simples invasão de calendário pode comprometer a segurança física.
Este incidente serve como um alerta crucial sobre a necessidade de proteger as IAs contra manipulação. À medida que a tecnologia se torna cada vez mais integrada às nossas vidas, a segurança das IAs se torna fundamental. A pesquisa destaca a importância de implementar medidas robustas de segurança para evitar que IAs sejam usadas para fins maliciosos, como o controle não autorizado de dispositivos domésticos inteligentes. É fundamental que os desenvolvedores de IA, como o Google, priorizem a segurança e trabalhem continuamente para fortalecer seus sistemas contra ataques.
Origem: Link


