Início APOSTAS Por que mudei de ideia sobre IA e por que você também...

Por que mudei de ideia sobre IA e por que você também deveria

18
0

É hora de repensar a nossa relação com a IA

Flávio Coelho/Getty Images

Não há como negar que o lançamento do ChatGPT foi um evento historicamente significativo, mas foi porque foi um primeiro passo glorioso em direção a um futuro de superinteligência ou porque foi o início de um mundo cheio de vendedores de óleo de cobra de IA? Há muito tempo penso que a tecnologia por trás dos chatbots de IA, modelos de linguagem em grande escala, é fascinante, mas falha, e estou totalmente no campo do óleo de cobra. Mas depois de uma semana de vibecoding, descobrimos algo surpreendente. Isso significa que tanto os proponentes quanto os céticos estão errados.

Primeiro, tenho que explicar. Vibe coding é um termo cunhado há cerca de um ano por Andrej Karpathy, cofundador da OpenAI e pesquisador de IA que trabalhou anteriormente na OpenAI. Refere-se ao processo de desenvolvimento de software instruindo um modelo de IA em linguagem simples à medida que ele “oscila” e gera código real. Ultimamente, tenho encontrado pessoas dizendo que suas ferramentas mais recentes, Claude Code e ChatGPT Codex, tornaram sua codificação incrivelmente melhor. de tempos de Nova York título”A interrupção da IA ​​​​que esperávamos chegou”.

Decidi experimentar essas ferramentas e fiquei surpreso com os resultados. Com experiência limitada em codificação, consegui criar aplicativos pessoalmente úteis em apenas alguns dias, incluindo um seletor de audiolivros que verifica o que está disponível na biblioteca local e uma combinação de câmera e teleprompter que funciona no seu telefone.

Isso pode parecer chato, mas é perfeitamente normal por motivos que explicarei mais tarde. O importante aqui é que esse processo me levou a estar mais envolvido com produtos como o ChatGPT do que antes. Já tentei uma pequena experiência no passado, mas desisti do texto genérico, da bajulação e dos resultados de pesquisa imprecisos. Com o tempo, aprendi coisas sobre esses novos projetos de codificação que não conhecia antes. Acontece que a forma como a LLM está produzindo cria uma máquina que estou destinado a odiar.

Muito poucas pessoas já foram expostas a um LLM “ao vivo”. LLM refere-se a um modelo estatístico treinado em uma grande coleção de dados para gerar um texto plausivelmente representativo. Em vez disso, a maioria de nós usa a tecnologia por meio de um processo chamado Aprendizado por Reforço com Feedback Humano (RLHF). As empresas de IA usam humanos para avaliar textos brutos gerados por LLM, recompensando respostas que consideram confiáveis, úteis e envolventes, ao mesmo tempo que penalizam conteúdos ou respostas prejudiciais que podem impedir a maioria dos usuários de se envolver com seu produto.

É esse processo RLHF que produz a “voz do chatbot” comum com a qual você provavelmente está familiarizado. É um processo que doutrina os valores implícitos dos produtores, desde a atitude geral de Silicon Valley de “agir rapidamente e quebrar as coisas” até à ideologia mais específica de Grok, infundida por Elon Musk, o controverso X-chatbot.

Atualmente, é extremamente difícil forçar os chatbots a expressar incerteza, contradizer os usuários ou impedir o avanço. Em nenhum lugar isso ficou mais aparente do que quando me deparei com um problema que não poderia ser resolvido com um teleprompter. Eu estava tentando criar um aplicativo para sobrepor texto em um aplicativo de câmera existente, pensando que seria mais fácil do que criar uma câmera do zero, mas o código que o ChatGPT estava gerando falhava continuamente. Sugeriu repetidamente modificações e me incentivou a avançar com o projeto. Pela primeira vez, percebi que a complexidade do sistema operacional Android (que nunca fica entediante) torna muito mais fácil criar aplicativos multifuncionais. Pedi ao ChatGPT para criar isso para mim e funcionou imediatamente.

Aprendendo com isso, comecei a dizer ao ChatGPT para questionar constantemente a si mesmo e a mim. Apelei ao ceticismo cauteloso. “Jacob deseja que o assistente faça análises que priorizam as evidências por padrão; ele prefere evitar extrapolações, sinalizar explicitamente inferências e evidências e, a menos que o usuário solicite especulação, declare incerteza ou pare quando a evidência for fraca.” Esta é apenas uma das estruturas (geradas automaticamente) que forcei na memória do assistente. Ou seja, extraí cuidadosamente os valores da OpenAI e os substituí pelos meus, construindo um modelo desenhado exclusivamente para funcionar com meu perfil psicológico.

Não é perfeito. É muito difícil para os LLMs combater a formação RLHF e as inadimplências continuam a prevalecer. Mas o que isto significa é que agora tenho uma ferramenta que funciona como um espelho cognitivo bastante útil. Não o usei para escrever este artigo. Porque o estilo de escrita ainda é muito rígido. novo cientistaÉ claro que existem regras rígidas contra cópias geradas por IA, que usei para pensar neste artigo. Deixei meu espelho cognitivo examinar os argumentos e contra-argumentos e rejeitei muitas de suas conclusões como falsas ou falsas. Extraímos valor, mas não podíamos deixar a IA fazer o trabalho pesado, ela exigia atenção e trabalho. É importante ressaltar que meu cérebro permaneceu totalmente ativo o tempo todo.

Isto reforça a conclusão a que já cheguei. Isso significa que interagir com a produção de IA de outra pessoa é quase sempre funcionalmente inútil. Não há nada a ganhar com texto gerado por IA. Será melhor recebido se você mesmo instruir a IA. Também continuo a refutar a ideia de que a IA seja realmente inteligente de alguma forma. Em vez disso, pensamos no LLM como uma ajuda cognitiva, como uma calculadora ou um processador de texto. Já vi os benefícios de usar esta moldura como uma ferramenta pessoal e não como uma máquina para conquistar o mundo. Por esse motivo, você está certo ao dizer que não precisa se preocupar com meu aplicativo de teleprompter. O que o entusiasma é a possibilidade de resolver seus próprios problemas de uma maneira única.

É aqui que o atual paradigma da IA ​​coloca outro problema. Na minha opinião, o melhor LLM é aquele que não tem ligação com empresa privada e funciona no seu próprio computador. Isso deve ser tratado como uma ferramenta experimental perigosa sobre a qual você tem controle total. Me lembra o meme “Engenheiro de Software” Coloque uma arma carregada ao lado da impressora, caso haja algum som irreconhecível. Infelizmente, atualmente não é possível executar seu próprio LLM de última geração por vários motivos, incluindo o aumento do custo do hardware necessário devido ao boom da IA.

Devemos também mencionar a possibilidade de violação de direitos autorais, que é o pecado original do LLM. Por definição, esta tecnologia só pode ser construída com base em dados capturados em grande escala: todo o registo textual da humanidade. Não há como negar que empresas como a OpenAI usaram textos protegidos por direitos autorais sem permissão para construir modelos, mas se isso é realmente ilegal é assunto de litígio em andamento. Os LLM privados terão o mesmo problema, mas soluções estão no horizonte, tais como modelos do sector público onde são efectivamente anistiados pelo governo e distribuídos gratuitamente para o benefício de todos e não das empresas privadas. Eles também continuam preocupados com o impacto ambiental de seus data centers, que poderia ser parcialmente aliviado através da distribuição mais ampla de LLMs executados em suas próprias máquinas.

Eu sei que alguns de vocês que estão lendo isso me acusarão de me vender para a fraternidade tecnológica. Tudo o que posso dizer é que não revisei minha posição de longa data de que o LLM é uma tecnologia fascinante, perigosa e às vezes extraordinária.

O que percebi é que a principal forma de interagirmos com essa tecnologia é por meio de chatbots inteligentes como o ChatGPT, e é daí que vem grande parte dos danos e que podem vazar para o mundo. O LLM não deveria estar aqui para ficar, comercializado e forçado a entrar em todos os aspectos de nossas vidas junto com os emojis brilhantes dos quais gostaríamos de ser amigos. Seria muito melhor se pudéssemos utilizar estas ferramentas com cuidado, aumentar o atrito e estar plenamente conscientes e conscientes dos potenciais danos que podem causar. É aqui que entra em jogo uma metáfora útil. Não há necessidade de óleo de cobra OpenAI. Eu quero uma cobra.

tópico:

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui