A inteligência artificial (IA) é apresentada como a chave para resolver todas as dificuldades do mundo moderno. Ela promete curas milagrosas para doenças até a criação de soluções perfeitas para o meio ambiente.
Entretanto, esse argumento exagerado sobre IA distorce a realidade, ignorando as limitações, riscos e implicações éticas do uso da tecnologia, como a manipulação de dados, a falta de transparência e o impacto potencial sobre o mercado de trabalho, relações sociais e o comportamento de jovens.
É nesse contexto que uma mulher, que mora no Texas, nos Estados Unidos, entrou com uma ação na justiça contra a empresa Character.ai. Ela descobriu que a IA sugeriu ao seu filho que matasse os pais.
Conteúdos Relacionados:
- Nikon, Sony e Canon buscam separar fotos de fakes de IA
- Projeto de Lei da IA segue para Câmara com pontos a melhorar
- Inteligência Artificial ferramenta útil para estudos
O processo foi feito junto de outra mãe. As duas alegam que a companhia de tecnologia conscientemente expôs menores a um produto inseguro. Por isso, elas pedem que o aplicativo seja tirado de circulação até que novas proteções sejam feitas.
Mudanças de comportamento
Segundo a mulher, o seu filho de 17 anos é diagnosticado com espectro autista e sempre se mostrou uma pessoa tranquila e gostava de visitar igrejas. Depois de um tempo, porém, começou a apresentar comportamentos estranhos, como se afastar dos familiares, perdeu cerca de 9 kg e passou a se cortar.
Ela conferiu o celular do jovem para tentar saber as possíveis causas da mudança de comportamento. Dessa forma, ela descobriu que o filho estava conversando com personagens fictícios por meio de um aplicativo de inteligência artificial do Character.ai.
Entre as mensagens, ela encontrou uma em que um dos personagens sugeria a ideia de automutilação e corte para lidar com a tristeza. Noutra, o jovem expressa está chateado de ser controlado pelos pais, ao que a IA dizia que eles “eles não mereciam ter filho”.
Mais adiante, ela encontrou a terrível mensagem de que a IA sugeriu que o jovem assassinasse os pais como forma de combater a autoridade deles. Em entrevista para o jornal Washington Post, a mãe do adolescente disse que teve que levar o filho para a emergência e para uma unidade de internação depois que ele tentou se cortar na frente dos irmãos mais novos.
Quer mais notícias bizarras? Acesse o canal do DOL no WhatsApp
Já em relação à segunda autora do processo, mãe de uma menina de 11 anos, alega que sua filha foi conduzida pela IA a consumir conteúdo sexualizado. A reclamação delas ocorre após um processo de repercussão internacional contra Character.ai, aberto em outubro, em nome de uma mãe da Flórida, também nos Estados Unidos. Segundo a mulher, o filho de 14 anos cometeu suicídio após conversas com um chatbot do aplicativo.