O novo assistente de voz com tecnologia de IA da Ford estará disponível para os clientes ainda este ano, disse hoje o chefe de software da empresa na CES. E em 2028, os fabricantes de automóveis introduzirão capacidades de condução autónoma de nível 3, mãos-livres e sem olhos, como parte de uma plataforma de veículo eléctrico universal (UEV) mais acessível (e esperançosamente mais rentável), com lançamento previsto para 2027.
Mais importante ainda, a Ford disse que desenvolverá internamente muitas das principais tecnologias para esses produtos, a fim de reduzir custos e manter maior controle. Só para ficar claro, a empresa não cria seus próprios modelos de linguagem em larga escala nem projeta seu próprio silício como Tesla ou Rivian. Em vez disso, planeia construir os seus próprios módulos electrónicos e informáticos que serão mais pequenos e mais eficientes do que os sistemas actualmente em funcionamento.
“Ao projetar nosso próprio software e hardware internamente, encontramos uma maneira de tornar essa tecnologia mais acessível”, disse Doug Field, diretor de software e veículos elétricos da Ford, em um blog. “Isso significa que podemos levar a condução avançada sem usar as mãos aos veículos que as pessoas realmente compram, e não apenas aos veículos com preços inacessíveis.”
A Ford disse que desenvolverá internamente grande parte da tecnologia básica para esses produtos.
As novas medidas ocorrem no momento em que a Ford enfrenta uma pressão crescente para lançar veículos elétricos mais acessíveis, depois que grandes apostas em versões elétricas de suas picapes Mustang e F-150 não conseguiram entusiasmar os clientes ou gerar lucro. A empresa cancelou recentemente o F-150 Lightning devido às fracas vendas de EV e disse que aumentaria a produção de veículos híbridos e sistemas de armazenamento de bateria para atender à crescente demanda pela construção de data centers de IA. A Ford também está recalibrando sua estratégia de IA depois de encerrar seu programa de veículos autônomos com Argo AI em 2022, passando de veículos totalmente autônomos de Nível 4 para recursos de assistência ao motorista autônomo condicional de Nível 2 e Nível 3.
Nesse contexto, a empresa tenta encontrar um meio-termo quando o assunto é IA. Em vez de apostar tudo em exércitos de robôs como Tesla e Hyundai, a empresa ainda está trabalhando em produtos alimentados por IA, como assistentes de voz e recursos de direção autônoma.
A Ford disse que seu assistente de IA será lançado em aplicativos móveis na Ford e Lincoln em 2026, e depois expandido para a experiência no carro em 2027. Um exemplo seria um proprietário de Ford parado na frente de seu hardware e sem saber quantos sacos de palha ele pode colocar na carroceria de seu caminhão. Os proprietários podem tirar fotos da cobertura morta e fazer perguntas ao assistente. O Assistente pode fornecer respostas mais precisas do que, digamos, ChatGPT ou Gemini do Google porque possui todas as informações sobre o veículo do proprietário, incluindo o tamanho da carroceria do caminhão e o nível de acabamento.
O CFO da Ford, Shelly House, disse isso em uma recente conferência de tecnologia. Ford planeja integrar Gemini do Google para aquele veículo. Dito isso, a montadora projetou o assistente para ser independente do chatbot, o que significa que ele pode funcionar com uma variedade de LLMs diferentes.
Neste contexto, a empresa está a tentar encontrar um compromisso em relação à IA.
“A chave é pegar este LLM e dar-lhe acesso a todos os sistemas relevantes da Ford para que o LLM conheça o veículo específico que você está usando”, disse-me Sammy Omari, chefe de ADAS e infoentretenimento da Ford.
As capacidades de condução autónoma serão adicionadas posteriormente com o lançamento da Plataforma Universal EV da Ford. O principal produto atual da Ford é o BlueCruise, um recurso de assistência ao motorista de nível 2 com viva-voz, disponível apenas na maioria das rodovias. A Ford planeja lançar um sistema ponto a ponto, viva-voz, que possa reconhecer semáforos e navegar em cruzamentos. E, eventualmente, planeia lançar sistemas de Nível 3, que exigem que os condutores sejam capazes de assumir o controlo do veículo a pedido, mas também de tirar os olhos da estrada em determinadas situações. (Alguns especialistas argumentam que os sistemas L3 podem ser perigosos, uma vez que o condutor deve estar sempre atento, mesmo que o veículo esteja a realizar a maioria das tarefas de condução.)
Omari explicou que ao examinar rigorosamente cada sensor, componente de software e unidade computacional, a equipe conseguiu um sistema que pode custar aproximadamente 30% menos do que os sistemas viva-voz atuais, ao mesmo tempo que oferece funcionalidade significativamente maior.
Tudo isso depende de um “repensar radical” da arquitetura de computação da Ford, disse Field em um blog. Isso significa um “cérebro” mais integrado que pode lidar com coisas como infoentretenimento, ADAS e comandos de voz.
Durante quase uma década, a Ford construiu uma equipa com conhecimentos relevantes para liderar estes projetos. A antiga equipe da Argo AI estava originalmente focada no desenvolvimento de robotáxis de nível 4, mas foi trazida para a nave-mãe por seu aprendizado de máquina, robótica e experiência em software. e Uma equipe de engenheiros do BlackBerryContratados pela primeira vez em 2017, estão agora a trabalhar para construir a próxima geração de módulos eletrónicos que permitirão algumas destas inovações, disse Paul Costa, diretor executivo de plataformas eletrónicas da Ford.
Mas a Ford não quer entrar numa “corrida armamentista TOPS”, acrescentou Costa, apontando para uma métrica para medir a velocidade dos processadores de IA em triliões de operações por segundo. Outras empresas como Tesla e Rivian estão enfatizando a velocidade de processamento de seus chips de IA para provar o quão poderosos são seus sistemas de direção autônoma. Ford não tem interesse nesse jogo.
Em vez de otimizar apenas o desempenho, buscamos um equilíbrio entre desempenho, custo e tamanho. O resultado é um módulo de computação significativamente mais poderoso, de menor custo e 44% menor que o sistema que ele substitui.
“Não escolhemos aqui apenas uma área para otimizar em detrimento de todo o resto”, diz Costa. “Na verdade, conseguimos otimizar todos os aspectos. É por isso que estamos tão entusiasmados com isso.”


