A IA tornou-se inevitável. O que antes era um campo de pesquisa de nicho está agora totalmente integrado na vida pessoal e profissional das pessoas comuns. Para os líderes empresariais, a questão evolui, portanto, de ‘os meus funcionários estão usando IA?’ (quer você goste ou não), ‘meus funcionários estão usando minha IA com segurança?’
Liderar um pesquisador de segurança cibernética na CultureAI.
Claramente, os trabalhadores e, por sua vez, os empregadores vêem o potencial da utilização da IA para gerar ganhos. O apelo do momento positivo e das equipes de recursos.
grande parte desta mudança é impulsionada de baixo para cima. A pesquisa sugere que 78% dos usuários de IA já possuem seus próprios Ferramentas de IA para funcionar. No entanto, essas ferramentas são frequentemente utilizadas no local de trabalho sem conhecimento ou supervisão.
Estas ferramentas de IA não documentadas – ou IA sombra – que operam nas redes da empresa ou utilizam dados da empresa podem representar riscos de segurança significativos.
O que está claro é que os funcionários continuarão a utilizar a IA, não esperando que os seus empregadores cumpram as suas licenças, diretrizes claras e medidas de segurança. Felizmente, existem formas de os empregadores implementarem rapidamente uma governação eficaz da IA e controlos de emprego sem inovação.
Visibilidade da IA (ou falta dela)
É provável que seus funcionários usem IA de uma forma ou de outra. O perigo é não saber onde, como e por que meios. A pesquisa sugere que quase metade (47%) dos usuários GenAI ainda acessam ferramentas por meio de contas pessoais não estruturadas ou apenas ou em torno de ferramentas empresariais aprovadas.
Ao contrário do treinamento convencional, a IA generativa é baseada em dados de entrada. Com isso surge o risco de sugerir a entrada de informações até mesmo confidenciais e pessoais dados, IP ou mesmo código fonte. Sem visibilidade, os empregadores enfrentam um ponto cego crescente.
Compreender os riscos associados ao uso de IA no local de trabalho
Com a adoção de novas tecnologias vem o risco. Com a adoção da IA no local de trabalho, isso inclui:
a sombra da IA
Os funcionários estão cada vez mais experimentando novas ferramentas de IA, muitas vezes porque são gratuitas, mais rápidas ou mais convenientes do que as aprovadas. Embora isso possa melhorar a eficiência, o uso de IA estrangeira. Os aplicativos (shadow AI) expandem significativamente a superfície de ataque e deixam as equipes de segurança sem visibilidade ou supervisão suficiente.
O que deveria ser escrito sobre esses instrumentos? Uma pesquisa recente sugere que 93% dos funcionários de mídia corporativa colocam dados em ferramentas de IA não autorizadas, com quase um terço admitindo compartilhar informações confidenciais de clientes.
Isto significa que a propriedade intelectual, os dados estruturados e os dados pessoais são potencialmente processados por terceiros desconhecidos. O que farão com essa notícia é desconhecido.
É preocupante que muitas ferramentas tradicionais de grande porte competem por envios imediatos que detectam dados confidenciais, especialmente quando as ferramentas de IA são acessadas por meio de contas vazias ou dispositivos pessoais.
Basquete das Maurícias
Os funcionários são solicitados a colar informações confidenciais em ferramentas de IA, muitas vezes sem o risco de compreendê-las totalmente. No início de 2023, os engenheiros da LG expuseram acidentalmente código proprietário e encontraram mais informações confidenciais entregando-as ao ChatGPT, colocando as informações fora do controle da empresa.
Desde então, incidentes semelhantes surgiram em todos os setores, mostrando a quantidade de dados confidenciais que fluem silenciosamente para sistemas de IA de terceiros. Depois de enviados, as organizações geralmente têm capacidade limitada de remover ou controlar totalmente como esses dados são retidos ou usados.
Razões e abrigos seguros disponíveis
Endereços que sugerem estratégias de IA ou suspeitas podem fornecer aos agentes da ameaça acesso a uma ampla gama de informações confidenciais e, em alguns casos, podem comprometer ainda mais o sistema se os controles mais amplos de segurança cibernética forem fracos.
Dado o volume e a sensibilidade dos dados frequentemente introduzidos pelas ferramentas de IA, um único sistema de IA suspeito pode levar à exposição imediata a informações privadas da empresa, incluindo documentos, propriedade intelectual e sistemas internos.
Lacunas de conformidade e governança
À medida que a adoção da IA acelera, os reguladores examinam cada vez mais a forma como as organizações utilizam a IA, especialmente onde esta se cruza com a proteção de dados. O envio de informações de identificação pessoal (PII) para serviços não regulamentados ou serviços externos de IA pode violar regulamentações como GDPR, HIPAA e requisitos de privacidade específicos do setor.
Em setores altamente regulamentados, como finanças, defesa e saúde, mesmo o uso incompleto de uma ferramenta externa de IA pode resultar em exposições legais e de conformidade significativas.
O futuro da IA no local de trabalho
À medida que a rápida explosão da IA aparece no dispositivo, ela reflete a mesma adoção de tecnologias que vieram antes dele.
A diferença entre IA e tecnologias de “nova manutenção” é que a IA corporativa consome dados corporativos em grande escala em cada transação, o que aumenta enormemente o risco de violações, violações e problemas de conformidade. A solução não interfere em nada na IA.
Você encontrará funcionários andando pelo trabalho, como se estivessem usando informações pessoais. telefones celulares para entrar em determinada empresa, especialmente se já consideraram essas ferramentas eficazes. As equipes de segurança precisam criar segurança e implantar políticas de TI que regem o uso de IA, a descoberta de IA sombra e o uso de análises abrangentes.
Esses pilares são os principais recursos da nova inovação.
Pode demorar um pouco para se organizar, mas não espere pelo treinamento essencial. Em última análise, os seus funcionários de IA – quer gostem ou não – podem agora agir para compreender e controlar o “como” e “onde” da utilização da IA para torná-la mais segura, sem ter de inovar.
Desenvolvemos o melhor chatbot de IA para negócios.
Este artigo foi produzido como parte do canal TechRadarPro Expert, onde apresentamos as melhores e mais brilhantes mentes da indústria de tecnologia atualmente. As opiniões expressas aqui são de responsabilidade do autor e não necessariamente da TechRadarPro ou Future Plc. Se ajudar, você pode encontrar mais informações aqui: https://www.techradar.com/news/submit-your-story-to-techradar-pro



