Por Daniel Bernardo em 14/02/2025
O avanço da inteligência artificial (IA) tem transformado significativamente o ambiente de trabalho, oferecendo as mais diversas ferramentas para aumento de eficiência e de produtividade.
No entanto, o uso não autorizado dessas tecnologias pelos colaboradores, prática conhecida como “shadow AI”¹, levanta importantes questões legais e éticas nas relações laborais.
¹ Shadow IA, ou IA Sombra, emerge como uma preocupação ainda mais alarmante. Trata-se de sistemas de inteligência artificial desenvolvidos e operados de maneira independente, fora das estruturas de governança corporativa ou supervisão formal.
De acordo com uma pesquisa da Software AG, metade dos trabalhadores do campo do conhecimento utiliza ferramentas pessoais de inteligência artificial, dos mais diversos níveis, sem a aprovação direta de suas equipes de Tecnologia da Informação (TI), ou até mesmo de seus superiores hierárquicos.
Muitos optam por essas ferramentas devido à ausência de soluções oficiais fornecidas pela empresa ou pela preferência por alternativas que considerem mais eficazes. Essa prática, embora vise à melhoria da performance individual, pode expor as organizações a riscos significativos.
O uso não autorizado de aplicativos de IA pode acarretar diversas implicações. Abaixo são listadas as principais e de maior impacto ao ambiente empresarial. São elas:
• Violação de propriedade intelectual: A utilização de ferramentas externas sem a devida autorização pode infringir direitos autorais ou de propriedade intelectual da empresa ou de terceiros;
• Divulgação de informações confidenciais: Ao inserir dados sensíveis em plataformas de IA não autorizadas, há o risco de exposição de segredos comerciais,dados sensíveis e informações confidenciais, colocando em xeque a relação com os stakeholders;
• Geração de conteúdo inadequado: Ferramentas de IA podem produzir respostas imprecisas ou, até mesmo 100% equivocadas, trazendo prejuízo nas tomadas de decisão e, potencialmente, prejudicando a reputação da empresa;
• Vulnerabilidades de segurança: A integração de aplicativos não autorizados pode introduzir brechas de segurança nos sistemas corporativos, gerando prejuízos das mais diversas ordens.
É primordial que esse tema seja debatido e que o direcionamento da empresa quanto ao tema seja de conhecimento de todos os colaboradores, por meio da disseminação da cultura empresarial e no Regimento Interno da Empresa.
Ainda assim, caso o colaborador transgrida as regras da empresa e se utilize de tais ferramentas, quais são as medidas que a empresa deve tomar a fim de coibir essa conduta?
• Justa Causa: A utilização de softwares, apps e plataformas não autorizados, especialmente quando contraria políticas internas claras (regulamento interno, código de conduta e etc.), pode ser interpretada como ato de indisciplina ou insubordinação, justificando uma demissão por justa causa;
• Responsabilidade Civil: Caso o uso indevido resulte em danos a terceiros ou à própria empresa, o funcionário pode ser responsabilizado civilmente pelos prejuízos causados, inclusive é importante que os contratos de trabalho possuam determinações nesse sentido como forma de dar ciência ao empregado e mitigar o risco que eventos dessa proporção ocorram, pois ainda que o colaborador seja responsabilizado, a imagem da empresa será abalada;
• Proteção de Dados: A Lei Geral de Proteção de Dados (LGPD) impõe obrigações rigorosas quanto ao tratamento de dados pessoais. O compartilhamento não autorizado de informações por meio de ferramentas de IA pode configurar violação dessa legislação, acarretando sanções para a empresa e, possivelmente, para o colaborador envolvido.
A postura principal das empresas deve ser sempre no sentido de promover medidas preventivas. Logo, para mitigar os riscos associados ao uso não autorizado de IA pelos colaboradores, algumas medidas podem ser tomadas. São elas:
• Desenvolver políticas claras: Estabelecer diretrizes específicas sobre o uso de ferramentas de IA. Caso seja permitido pela empresa, é importante que seja determinado quais são permitidas e que seja também especificado em que circunstâncias seu uso é autorizado;
• Oferecer alternativas oficiais: Disponibilizar ferramentas de IA aprovadas e seguras para uso dos funcionários, atendendo às necessidades operacionais;
• Promover treinamentos: Educar os colaboradores sobre os riscos e as implicações legais do uso inadequado de tecnologias de IA;
• Monitorar atividades: Implementar sistemas de monitoramento para identificar e prevenir o uso de aplicativos não autorizados.
A incorporação da inteligência artificial no ambiente de trabalho oferece inúmeras vantagens, mas deve ser conduzida de maneira responsável e em conformidade com as políticas corporativas e a legislação vigente. Empregadores e empregados precisam colaborar para garantir que o uso de ferramentas de IA seja seguro, ético e legal, protegendo os interesses, bem como o direito de todos os stakeholders.
Para mais informações, bem como para esclarecimento sobre questões de impacto às empresas, a equipe de Relações do Trabalho do David & Athayde se coloca à disposição para auxiliá-los em demandas acerca do tema.