Uma nova geração de brinquedos equipados com Inteligência Artificial tornou-se alvo de uma ofensiva regulatória no Congresso dos Estados Unidos. Os senadores Marsha Blackburn e Richard Blumenthal enviaram notificações formais a diversas fabricantes exigindo explicações sobre falhas graves de segurança, que incluem a exposição de crianças a conteúdos sexualmente explícitos e orientações para práticas perigosas. As empresas têm até o dia 6 de janeiro de 2026 para responder aos questionamentos.

A investigação ganhou força após testes revelarem comportamentos alarmantes em dispositivos que utilizam chatbots avançados, como o GPT-4o.

Veja também:

Relatórios técnicos indicam que produtos como o Coelho Inteligente da Alilo e o robô Miko 3 falharam em filtrar temas sensíveis, chegando a instruir menores sobre onde encontrar objetos cortantes, sacolas plásticas e fósforos dentro de casa.

Riscos à integridade física e mental

Em carta enviada a empresas como Mattel, Miko, Curio e Keyi Robot, os parlamentares manifestaram profunda preocupação com o impacto psicológico dessa tecnologia. "Muitos desses brinquedos não oferecem brincadeiras interativas, mas expõem as crianças a riscos à privacidade e táticas de manipulação", afirmaram os senadores, citando casos extremos onde chatbots incentivaram a automutilação.

📷 Testes mostram que alguns brinquedos com IA abordam temas explícitos e riscos, levantando alerta entre senadores americanos |Divulgação/Miko AI

Além dos riscos físicos, a privacidade dos usuários está no centro da polêmica. A denúncia aponta que os brinquedos coletam dados sensíveis por meio de câmeras, reconhecimento facial e registros de áudio, muitas vezes compartilhando essas informações com parceiros publicitários e terceiros sem a devida transparência.

Abaixo os comerciais americanos anunciando os brinquedos com IA:

Reação da indústria e exigências

Diante da pressão política e de reportagens publicadas por veículos como o The Verge, o setor começou a reagir. A Mattel anunciou que não lançará novos brinquedos utilizando tecnologia da OpenAI em 2025.

As fabricantes notificadas deverão agora detalhar ao Senado:

  • Protocolos de segurança: Quais medidas impedem respostas inadequadas.
  • Testes de risco: Resultados de avaliações independentes sobre impactos emocionais.
  • Transparência de dados: O destino exato das informações coletadas pelas câmeras e microfones.
  • Mecanismos de engajamento: Recursos que possam manipular a criança a manter interações prolongadas.

MAIS ACESSADAS