As IAs avançam, mas como "pensam" sob pressão? O episódio da IA Gemini da Google, que demonstrou "pânico" ao jogar Pokémon, conforme reportado pela TechCrunch e detalhado pela DeepMind, acende um debate sobre os limites do raciocínio artificial.

O "Pânico" da IA Gemini em Pokémon
Testando Pokémon Blue, a Gemini 2.5 Pro da Google DeepMind exibiu "pânico" com Pokémon quase derrotados, resultando em "degradação observável no raciocínio". Em lives na Twitch ("Gemini Plays Pokémon"), o público viu a IA parar de usar ferramentas. Embora sem emoções, suas ações mimetizam decisões humanas apressadas sob estresse, um comportamento notado pela comunidade online.
Por Que Jogos Testam IAs?
Google e Anthropic usam jogos como Pokémon para "AI benchmarking". Observar IAs em games revela como resolvem problemas. Não é só a velocidade (Gemini leva horas onde uma criança é mais rápida), mas o comportamento. O Claude da Anthropic, preso, hipotetizou que perder todos os Pokémon o levaria à próxima cidade – uma lógica falha, mas intrigante.
Análise: Limites e Aprendizados
O "pânico" da Gemini e erros de Claude, citados pela TechCrunch, não são emoção, mas falhas algorítmicas sob complexidade. Se uma IA falha num jogo, e no mundo real? Esses episódios são cruciais para desenvolver IAs robustas. Apesar disso, Gemini resolveu quebra-cabeças com ferramentas que ajudou a criar, sugerindo potencial de auto-correção. Estudar esses comportamentos é vital para uma IA segura.