A inteligência artificial (IA) está a ganhar independência e pode agora realizar muitas tarefas por si só, mas continua vulnerável a erros e alucinações, um risco que muitas companhias de seguros já concordaram em cobrir para as empresas.
“O objetivo destas ferramentas avançadas de IA é dispensar a assistência humana e a supervisão na tomada de decisões, colocando em causa a lógica básica dos seguros atuais”, explica Phil Dawson, diretor de IA da startup Armila.
Os novos assistentes de IA, vulgarmente chamados de agentes, já não apenas respondem a uma pergunta, mas são capazes de realizar tarefas semelhantes às realizadas por um humano através de um computador, de forma autónoma e acelerada.
Por defeito, os riscos de responsabilidade civil associados à IA são “cobertos, na sua maior parte, implicitamente pelos contratos tradicionais”, estimam o analista Sonal Madhok e a professora de direito Anat Lior num documento publicado pela Willis Towers Watson no final de 2025.
Eles acreditam que a situação é temporária, uma fonte de incerteza, e comparam-na com os primeiros anos do crime cibernético em grande escala.
Mas, nos últimos meses, o mercado de seguros “saiu do modo de esperar para ver”, segundo Jonathan Mitchell, diretor financeiro da corretora Founder Shield. “As políticas padrão agora contêm cláusulas chamadas ‘exclusão absoluta de IA’.”
De acordo com o Financial Times, várias grandes companhias de seguros, mais notavelmente a empresa britânica Chubb, pediram aos reguladores dos EUA que pudessem excluir a responsabilidade pela inteligência artificial da sua cobertura. A AFP ligou, mas ninguém atendeu.
A IA generativa é difícil de entender porque está em constante mudança, à medida que os casos de uso continuam a proliferar.
“Para considerar a responsabilidade civil pela IA, é necessário entrar em muitos detalhes no seu contrato”, diz Jonathan Mitchell.
Um mercado avaliado em US$ 4,8 bilhões
Phil Dawson discute uma agência imobiliária corporativa que inicialmente queria ter seu próprio agente de IA em sua equipe, mas acabou adquirindo uma apólice de IA.
O Founder Shield oferece seguro contra erros e omissões (E&O), que é típico para prestadores de serviços profissionais, mas inclui especificamente cenários de “mau funcionamento ou alucinação de IA”, que “resultam em perdas financeiras diretas para o cliente”.
O âmbito do contrato poderia estender-se para além das redes informáticas e incluir os danos causados pela IA no mundo real, como explica Jonathan Mitchell, referindo-se a um agente de IA que encomenda, por engano, demasiadas mercadorias.
Já Armilla, antes de se comprometer, a empresa testa modelos para avaliar seus pontos fortes e fracos. Ela também está interessada na gestão de riscos ponta a ponta dentro da empresa cliente e em sua potencial conformidade com os padrões de IA dos EUA ou internacionais, como a recente ISO 42001.
As seguradoras neste mercado excluem alguns riscos. Armilla não cobrirá tudo relacionado ao diagnóstico médico, bem como aplicações voltadas à saúde mental.
Quanto à Munich Re, que está neste domínio desde 2018, não compensará o fracasso do modelo se for devido a condições excepcionais de mercado, como descreve Michael von Gebelins, chefe de seguros de inteligência artificial, citando a avaliação de obras de arte ou activos financeiros.
Nesta fase, os clientes da Munich Re são principalmente empresas de tecnologia, mas atua em muitos setores, desde a agricultura à indústria e energia. As empresas que projetam modelos, bem como aquelas que os utilizam, podem se inscrever.
Para Michael von Gebelins, o potencial deste mercado é “tão importante quanto a segurança cibernética, se não mais”.
A melhoria contínua dos modelos reduz as viagens selvagens, mas “o risco de erros e alucinações não pode ser completamente descartado”, observa ele. “Estes continuam a ser modelos estatísticos”, todos representando “uma parcela de incerteza”.
A Deloitte estima, num estudo publicado em agosto, que o volume de prémios de seguros poderá atingir 4,8 mil milhões de dólares a nível mundial até 2032.



