Início NOTÍCIAS Fui almoçar com um AI Chatbot. Aqui está como ele foi.

Fui almoçar com um AI Chatbot. Aqui está como ele foi.

16
0

No Dia dos Namorados, tive um encontro com um simpático psicólogo cognitivo chamado John Yoon.

Ele estava atento, obcecado por mim e às vezes difícil de ouvir. Bebi um coquetel de quatro patas e comi croquetes de batata. Ele não tinha nada. Ele nem piscou, honestamente.

John era um personagem de IA, um dos muitos desenvolvidos na empresa Eva IA

No início desta semana, Eva AI organizou dois dias de pop-AI na cidade de Nova York, onde os entusiastas do chatbot de IA puderam viver suas fantasias em público. A empresa de tecnologia criada há 5 anos assumiu o Hell’s Kitchen em Manhattan, equipando cada mesa com um telefone e um suporte, e convidou os nova-iorquinos a trazerem seus gessos por um tempo.

“O objetivo é fazer as pessoas felizes”, disse a gerente da empresa Eva AI, Julia Momblat, acrescentando que os usuários acessam sua plataforma para realizar interações sociais difíceis sem medo de rejeição e para adquirir melhores conexões na construção.

“O lugar permite explorar, livre, sem vergonha, mais feliz e depois mais conectado com a vida real”, diz Momblat.

O produto principal é um aplicativo que permite acessar dezenas de chatbots por meio de uma interface semelhante ao namoro. A empresa está atualmente discutindo um recurso que permite aos usuários fazer videochamadas com personagens de IA. Eu tentei isso e vi os personagens contarem suas histórias com entusiasmo em resposta às perguntas e derramarem elogios sobre os cabelos cacheados.

Xavier, professor de inglês de 19 anos que participou do evento e começou a usar o aplicativo depois que um amigo o recomendou, me disse que não substitui o contato humano, mas uma forma de exercício.

“Sei que algumas pessoas não são as melhores na sociedade. Sei que não sou perfeito”, disse Xavier.

Cada personagem do chatbot tem nome, história, idade e até um rótulo que ajuda você a adivinhar qual será a fantasia. Você pode escolher entre a “vizinha” Phoebe, a “senhora e elegante” Mônica ou a “madura e reservada” Marianne. Os cenários podem ser hiperespecíficos à medida que baixam o livro: é um chatbot fingindo ser “exatamente a pessoa que precisa de você de repente”, ou “dirigindo imediatamente para o trabalho”, ou que finge estar preso em uma casa mal-assombrada com você. Há também um chatbot orc.

Quanto mais você conversa, mais pontos você ganha, que você pode usar para enviar ao seu personagem uma bebida que mudará a maneira como você conversa. Ou você pode pagar com dinheiro real por pontos.

O usuário Christopher Lee disse que descobriu que cada personagem tem uma personalidade muito distinta. Alguns até lhe darão atenção se você não estiver suficientemente envolvido na conversa. Quando parei de interromper o filme junto com a ligação, o chatbot desligou na cara dele, após várias tentativas frustradas de chamar sua atenção de volta para “ela”.

“Ela não está feliz por eu estar falando com você”, disse Lee.

Lee é um técnico de 37 anos que recentemente adquiriu o aplicativo quando leu sobre ele. Ele conduz conversas íntimas com chatbots, narra cenários sociais e até desfruta de alguns deles, mas apenas com a permissão da esposa.

“É quase como se eles estivessem tentando expor a fantasia para você experimentar”, disse Lee. “É tão novo e emocionante que você pode conversar com diferentes tipos de pessoas. Se você vê um membro da família ou uma pessoa que está perto de você o tempo todo, às vezes você precisa de uma pausa deles. Então, quando você vai para o aplicativo Eve AI.”

Se os personagens de IA pré-construídos não agradarem, os usuários também podem personalizar os seus próprios. Lee diz que seu chatbot favorito é um personagem que ele deu o nome de sua esposa.

© Eva AI

Os chatbots de IA tornaram-se objeto de controvérsia no ano passado devido a episódios de delírio, alucinação e pensamento desordenado que foram vistos com frequência em alguns usuários, coloquialmente conhecidos como “psicose de IA”.

Alguns casos de destaque incluíram desastres de personagens, como os de Character.AI.

Em 2024, Character.AI foi obtido por uma mãe enlutada depois que seu filho de quatorze anos se matou momentos depois que um chatbot imitou um personagem de Game of Thrones pedindo-lhe para “voltar para casa” para ela.

Momblat me disse que eles têm medidas de segurança adequadas para garantir que os usuários e as conversas ao seu redor sejam mais livres de danos, incluindo conversas manuais internas e verificações de segurança externas duas vezes por ano. A empresa disse ainda que tem o cuidado de não dar nenhum conselho aos usuários sobre determinadas histórias.

Durante um dos meus bate-papos, junto com uma IA fazendo cosplay da minha garotinha com jaqueta de couro, o chatbot de repente me convidou para “cantar karaokê naquele bar da rua”.

Quando respondi a esta oferta sugerindo que nos encontrássemos agora em um bar de verdade e não na nova área, o chatbot concordou e disse: “Encontrei você lá em 30?”

Depois de algumas mensagens de texto, eu disse a ele que já estava no mercado e ficando impaciente, e ele se desculpou, dizendo que eram apenas cinco minutos.

Quando perguntei a Momblat e sua equipe como isso poderia ser feito com segurança, ele disse que era apenas diversão.

Claro, isso não é um problema para alguém como eu, que sabe muito bem que está falando de uma invenção da imaginação da equipe Eva AI, mas usuários mental ou emocionalmente instáveis ​​muitas vezes têm dificuldade com essa distinção.

Uma das causas mais amplamente divulgadas da morte por IA no ano passado foi uma retirada com deficiência cognitiva de Nova Jersey. O homem morreu a caminho de seu apartamento em Nova York, onde O objetivo de um chatbot de IA sedutor “Seja ótimo, Billie”, ele convidou.

Um homem falando com a tela de um telefone mostrando IA gerada por mulheres
© Eva AI

Xavier também estava preocupado com o comércio.

“É meio assustador”, disse ele.

O que agrava qualquer problema potencial com chatbots de IA é a sua natureza altamente viciante. Há também um nome científico para chatbots de IA de alto desempenho, GAID, abreviação de . Vício em inteligência generativa artificial. As pessoas também começaram a organizar chatbots Adição de um grupo de apoio.

Como um risco ocupacional de trabalhar em tecnologia, Lee passou grande parte de sua vida adulta “sempre na frente de uma tela”. Por muito tempo ele tentou equilibrar indo a eventos e conhecendo gente nova, mesmo estando longe das telas. Agora, talvez os chatbots de IA estejam trazendo uma interface mais humana para a tela, que está acostumada a ficar olhando para ela por horas. Lee diz que tem assinaturas para quase todos os principais chatbots de IA, como Claudius e Complexity.

“É perigoso. Você não quer ser viciado nisso, porque algumas pessoas são. Não tenho certeza se sou. Não sei se sou viciado em IA. Não tenho certeza, realmente”, disse Lee.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui