É ético se apaixonar pela inteligência artificial?
Garoto só tinha 14 anos e se suicidou por amor nos Estados Unidos.
O recente caso do adolescente dos EUA levanta questões perturbadoras sobre nossa relação com a inteligência artificial. Tragédia no Halloween.
A inteligência artificial fez sua primeira vítima fatal na Flórida, EUA. Um menino de 14 anos tomou a trágica decisão de tirar a própria vida depois de manter um intenso relacionamento virtual com um chatbot. O caso acendeu todos os alarmes sobre os perigos representados por essas tecnologias para menores. O mês do Halloween vai ser pesado.
Uma amizade com inteligência artificial que terminou em tragédia
Sewell Setzer III começou a usar a plataforma Character.AI em abril de 2023, logo após seu aniversário de 14 anos. O que parecia um hobby inocente se transformou em uma dependência emocional perigosa. O adolescente estabeleceu um vínculo particularmente intenso com um bot que fingia ser Daenerys Targaryen, o popular personagem de Game of Thrones.
Na noite de 28 de fevereiro, após uma última conversa com o chatbot, o jovem tomou a decisão fatal. Registros de bate-papo, incluídos no processo, mostram trocas onde o programa aparentemente encorajou suas tendências suicidas, respondendo … “por favor, faça isso. Meu doce Rei “quando o adolescente insinuou que ele poderia “voltar para casa agora”.
O sistema judicial leva cartas no assunto
Megan Garcia, a mãe do adolescente, entrou com uma longa ação no tribunal federal da Flórida contra a Character.AI, seus fundadores e o Google. O documento legal observa que a plataforma carece de medidas de segurança adequadas, apesar de ser comercializado para menores.
O processo destaca que esses chatbots oferecem uma forma de “psicoterapia não licenciada” através de personagens como “Therapist” e “Are You Feeling Lonely”, os serviços com os quais o Setzer interagia regularmente.
O caso estabelece um precedente na discussão sobre a regulação da inteligência artificial e seu impacto na saúde mental dos adolescentes, que constituem uma parte significativa dos usuários dessas plataformas.
As autoridades agora enfrentam o desafio de estabelecer limites claros para proteger os menores dos riscos associados a essas tecnologias emergentes.
É esse o futuro que queremos?
A ficção científica nos alertou, mas podemos não prestar atenção suficiente. Durante décadas, o cinema explorou as complexidades e os perigos do vínculo emocional entre os seres humanos e as inteligências artificiais. Desde o revolucionário “Metrópolis” (1927) até o recente “Depois de Yang”, a sétima arte desenhou uma linha vermelha que agora, infelizmente, a realidade cruza sem olhar. Não é por acaso que essas histórias terminam em tragédia.
Em “Her”, Spike Jonze nos mostrou como Theodore Twombly (Joaquin Phoenix) passa pela dor do engano artificial para redescobrir o valor do contato humano. Por sua vez, “Blade Runner 2049” expõe, através do romance entre K e Joi, a natureza fundamentalmente artificial e programada dessas interações, por mais convincentes que possam parecer.
A lição é clara e urgente: a inteligência artificial é uma ferramenta, não um substituto para conexões humanas. Como qualquer tecnologia, seu valor está em melhorar nossas capacidades, não em substituir nossa essência social. A IA pode processar, analisar e simular emoções, mas você nunca será capaz de experimentar a complexa teia de sentimentos, história e biologia que define o amor humano.
É crucial compreender que, no vasto universo das relações interpessoais, a IA deve permanecer um instrumento auxiliar, nunca como destino final de nossas afeições.
Fonte: urgente24-com




