(48) 99997-9868 carcasa@carcasa.com.br

Ninguém sabe como a IA funciona

mar 19, 2024 | Blog, Tecnologia

Ninguém sabe como a IA funciona.

Ainda é cedo para nossa compreensão da IA, então espere mais falhas e falhas à medida que ela se torna parte dos produtos do mundo real.

 

 

 

Esta história apareceu originalmente no The Algorithm,

Tenho experimentado usar assistentes de IA no meu dia a dia de trabalho.
O maior obstáculo para que eles sejam úteis é que muitas vezes eles erram descaradamente. Em um caso, usei uma plataforma de transcrição de IA enquanto entrevistava alguém sobre uma deficiência física, apenas para o resumo de IA insistir que a conversa era sobre autismo. É um exemplo do problema de “alucinação” da IA, onde grandes modelos de linguagem simplesmente inventam coisas.

Recentemente, vimos algumas falhas de IA em uma escala muito maior. Na mais recente (hilária) gafe, o Gemini do Google se recusou a gerar imagens de pessoas brancas, especialmente homens brancos. Em vez disso, os usuários foram capazes de gerar imagens de papas negras e soldados nazistas. O Google vinha tentando fazer com que os resultados de seu modelo fossem menos tendenciosos, mas o tiro saiu pela culatra, e a empresa de tecnologia logo se viu no meio das guerras culturais dos EUA, com críticos conservadores e Elon Musk acusando-a de ter um viés “woke” e não representar a história com precisão. O Google pediu desculpas e pausou o recurso.

Em outro incidente agora famoso, o bate-papo do Bing da Microsoft disse a um repórter do New York Times para deixar sua esposa. E os chatbots de atendimento ao cliente continuam colocando suas empresas em todos os tipos de problemas. Por exemplo, a Air Canada foi recentemente forçada a dar um reembolso a um cliente em conformidade com uma política que seu chatbot de atendimento ao cliente havia inventado. A lista continua.
As empresas de tecnologia estão apressando o lançamento de produtos alimentados por IA, apesar das extensas evidências de que eles são difíceis de controlar e muitas vezes se comportam de maneiras imprevisíveis. Esse comportamento estranho acontece porque ninguém sabe exatamente como – ou por que – o deep learning, a tecnologia fundamental por trás do boom da IA de hoje, funciona. É um dos maiores quebra-cabeças em IA. Meu colega Will Douglas Heaven acaba de publicar um artigo onde mergulha nele.

O maior mistério é como grandes modelos de linguagem como o Gemini e o GPT-4 da OpenAI podem aprender a fazer algo que não foram ensinados a fazer. Você pode treinar um modelo de linguagem sobre problemas de matemática em inglês e, em seguida, mostrá-lo literatura francesa, e a partir disso, ele pode aprender a resolver problemas de matemática em francês. Essas habilidades vão contra as estatísticas clássicas, que fornecem nosso melhor conjunto de explicações para como os modelos preditivos devem se comportar, escreve Will.

É fácil confundir percepções decorrentes de nossa ignorância com magia. Até o nome da tecnologia, inteligência artificial, é tragicamente enganoso. Os modelos de linguagem parecem inteligentes porque geram prosa humana ao prever a próxima palavra em uma frase. A tecnologia não é verdadeiramente inteligente, e chamá-la de isso muda sutilmente nossas expectativas, então tratamos a tecnologia como mais capaz do que realmente é.

Não caia na armadilha do marketing do setor de tecnologia acreditando que esses modelos são oniscientes ou factuais, ou mesmo quase prontos para os trabalhos que esperamos que eles façam. Por causa de sua imprevisibilidade, vieses fora de controle, vulnerabilidades de segurança e propensão a inventar coisas, sua utilidade é extremamente limitada. Eles podem ajudar os humanos a fazer brainstorming, e eles podem nos entreter. Mas, sabendo o quão falhos e propensos a falhas esses modelos são, provavelmente não é uma boa ideia confiar neles os detalhes do seu cartão de crédito, suas informações confidenciais ou quaisquer casos de uso críticos.

Como dizem os cientistas do artigo de Will, ainda é cedo no campo da pesquisa de IA. De acordo com Boaz Barak, cientista da computação da Universidade de Harvard que atualmente está em destacamento para a equipe de superalinhamento da OpenAI, muitas pessoas na área a comparam à física no início do século 20, quando Einstein criou a teoria da relatividade.

O foco do campo hoje é como os modelos produzem as coisas que fazem, mas mais pesquisas são necessárias sobre por que eles fazem isso. Até que ganhemos uma melhor compreensão do interior da IA, espere mais erros estranhos e muito hype que a tecnologia inevitavelmente não conseguirá cumprir.

Agora leia o resto de O Algoritmo

Aprendizado mais profundo

Novo modelo generativo do Google DeepMind faz jogos parecidos com Super Mario do zero

A recente revelação da OpenAI de seu impressionante modelo generativo Sora empurrou o envelope do que é possível com text-to-video. Agora, o Google DeepMind nos traz jogos de texto para vídeo. O novo modelo, chamado Genie, pode pegar uma breve descrição, um esboço desenhado à mão ou uma foto e transformá-lo em um videogame jogável no estilo de plataformas 2D clássicas como Super Mario Bros. Mas não espere nada acelerado. Os jogos rodam a um quadro por segundo, contra os típicos 30 a 60 quadros por segundo da maioria dos jogos modernos.

Subir de nível: Os pesquisadores do Google DeepMind estão interessados em mais do que apenas geração de jogos. A equipe por trás do Genie trabalha no aprendizado aberto, onde bots controlados por IA são deixados em um ambiente virtual e deixados para resolver várias tarefas por tentativa e erro. É uma técnica que pode ter o benefício adicional de avançar no campo da robótica. (Will Douglas Heaven).

Bits e bytes

O que os luditas podem nos ensinar sobre resistir a um futuro
automatizado Esta HQ é um belo olhar sobre a história dos esforços dos trabalhadores para preservar seus direitos diante das novas tecnologias, e traça paralelos com a luta atual entre artistas e empresas de IA. (MIT Technology Review)
Elon Musk está processando a OpenAI e Sam Altman
Tire a pipoca. Musk, que ajudou a fundar a OpenAI, argumenta que a liderança da empresa a transformou de uma organização sem fins lucrativos que está desenvolvendo IA de código aberto para o bem público em uma subsidiária com fins lucrativos da Microsoft. (Wall Street Journal)

IA generativa pode dobrar a lei de direitos autorais além do ponto
de ruptura A lei de direitos autorais existe para promover uma cultura criativa que compensa as pessoas por suas contribuições criativas. A batalha legal entre artistas e empresas de IA provavelmente testará a noção do que constitui “uso justo”. (The Atlantic)

Tumblr e WordPress fecharam acordos para vender dados de usuários para treinar IA
O Reddit não é a única plataforma que busca capitalizar o boom de IA de hoje. Documentos internos revelam que o Tumblr e o WordPress estão trabalhando com Midjourney e OpenAI para oferecer conteúdo criado pelo usuário como dados de treinamento de IA. Os documentos revelam que o conjunto de dados que o Tumblr estava tentando vender incluía conteúdo que não deveria estar lá, como mensagens privadas. (404 Mídia)

Um chatbot do Pornhub impediu milhões de pessoas de procurar vídeos
de abuso infantil Nos últimos dois anos, um chatbot de IA orientou as pessoas que procuravam material de abuso sexual infantil no Pornhub no Reino Unido a procurar ajuda. Isso aconteceu mais de 4,4 milhões de vezes, o que é um número bastante chocante. (Wired)
Os perigos da publicidade gerada por IA. Case: Willy Wonka
Uma empresa de eventos em Glasgow, na Escócia, usou um gerador de imagens de IA para atrair clientes para a “Willy’s Chocolate Experience”, onde “sonhos de chocolate se tornam realidade” – apenas para os clientes chegarem a um armazém meio deserto com um triste Oompa Loompa e decorações deprimentes. A polícia foi chamada, o evento viralizou e a internet está tendo um dia daqueles desde então. (BBC)

Fonte:
technologyreview-com

Loading