fbpx
loader image

15 de outubro de 2025 - 13:00h

A Folha Agrícola

Vazamento de dados em conversas com IA levanta alerta de privacidade

Por Atilla Arruda, diretor Comercial da Solo Network

Nos últimos meses, diversos incidentes expuseram publicamente conversas privadas de usuários com chatbots de inteligência artificial, acendendo um sinal de alerta sobre vazamento de dados e proteção da privacidade. Diálogos confidenciais mantidos em plataformas de IA – que muitos julgavam ser privados – acabaram indexados no Google e outros buscadores, tornando-se acessíveis a qualquer pessoa online. Casos envolvendo serviços populares como ChatGPT, a assistente Meta AI e o chatbot Grok da xAI deixam claro os riscos na forma como essas ferramentas lidam com os dados dos usuários.

Incidentes recentes de conversas expostas por IA

No final de julho de 2025, usuários descobriram que milhares de conversas feitas no ChatGPT estavam aparecendo em resultados de busca do Google de forma inadvertida. Um novo recurso experimental da OpenAI chamado “Tornar esta conversa detectável” permitia que diálogos com o chatbot ficassem públicos e fossem encontrados via pesquisa web.

A intenção era ajudar pessoas a descobrir conversas úteis, mas, na prática, muitos ativaram essa opção sem entender as implicações, expondo conteúdos sensíveis. Diante da repercussão negativa, a OpenAI rapidamente removeu o recurso no dia 31 de julho de 2025.

Em outro caso, envolvendo a Meta, os diálogos dos usuários com a IA das plataformas da empresa – Facebook, Instagram e WhatsApp foram publicados online, sem aviso. No mesmo período, a startup xAI, de Elon Musk, viu seu chatbot Grok protagonizar outro vazamento em massa. Assim como nos casos anteriores, o problema estava na função de “compartilhar” conversas. Ao compartilhar um diálogo no Grok, a plataforma gerava um link público no site do próprio chatbot – o qual acabava indexado por motores de busca como Google, Bing e DuckDuckGo.

Investigações revelaram que mais de 370 mil conversas de usuários com o Grok já se encontravam listadas no Google. Muitos usuários ficaram surpresos ao descobrir que seus chats privados estavam públicos, pois não houve um alerta claro sobre essa possibilidade.

Governança de dados e prevenção de vazamentos

Os exemplos acima mostram a necessidade das empresas em fortalecer a governança de dados, especialmente no que tange ao uso das plataformas de IA.

Um estudo realizado pelos pesquisadores Carmen Bonifácio e Fábio Porto – do Instituto de Inteligência Artificial do LNCC, e Fernando Schapachnik, da Universidad de Buenos Aires, e publicado em maio deste ano, mostra a complexa relação entre a IA e a transformação do trabalho na América Latina. A pesquisa aponta que ao menos 39% disseram que o uso de IA generativa já faz parte da sua rotina diária de trabalho, e 61% relataram aprender a usar IA por conta própria, principalmente pela internet, sem apoio organizacional estruturado.

Ou seja: há um contingente expressivo de trabalhadores brasileiros que já incorporam IA generativa no dia a dia profissional, mas de forma autônoma e sem orientação oficial das empresas. Esse cenário aumenta os riscos de mau uso, exposição inadvertida de informações e ausência de governança, já que o aprendizado é autodidata e muitas vezes feito fora do horário de trabalho. Em última instância, o que ocorreu com ChatGPT, Meta AI e Grok — conversas privadas tornadas públicas por falta de controles claros — pode se repetir dentro das organizações se não houver políticas definidas.

No âmbito corporativo, esses incidentes reforçam porque muitas organizações têm sido cautelosas ao adotar IAs generativas. Empresas lidam com dados confidenciais de clientes e segredos comerciais que poderiam vazar caso funcionários utilizem ferramentas sem as devidas salvaguardas. Por isso, cresce o interesse em soluções de IA empresariais com foco em privacidade e controle. A Microsoft, por exemplo, integrou assistentes de IA em suas plataformas, assegurando a governança e a segurança dos dados.

As solicitações e respostas geradas pelo Copilot permanecem dentro do ambiente protegido do Microsoft 365 – ou seja, não são expostas externamente – e são criptografadas durante o armazenamento. Além disso, os administradores da organização têm como auditar e definir políticas de retenção dessas interações através de ferramentas de compliance.

Diante desse cenário, fica claro que a governança de dados precisa estar no centro da estratégia corporativa de adoção de IA. Não basta implementar ferramentas sofisticadas: é essencial estabelecer políticas claras de uso, treinar colaboradores, definir limites de acesso e monitorar continuamente as interações com os modelos. Ao adotar plataformas empresariais que garantem confidencialidade e oferecer capacitação estruturada aos times, as empresas conseguem equilibrar inovação e segurança, evitando que o entusiasmo pelo uso da IA se transforme em risco de vazamento ou perda de confiança.

Sobre a Solo Network   

Atuando desde 2002 no mercado brasileiro e atendendo mais de 6.000 clientes, a Solo Network é referência em consultoria e serviços de Segurança Digital, Soluções de Nuvem, Colaboração Corporativa, Criatividade e Engenharia. Premiada nacional e internacionalmente, possui os mais altos níveis de certificações técnicas, de governança, compliance e gestão de pessoas. Para saber mais acesse www.solonetwork.com.br.  

Document

Cotações Agrícola

Milho

R$ 69,02

Soja

R$ 133,99

Trigo

R$ 79,61

Feijão

R$ 143,36

Boi

R$ 306,40

Suíno

R$ 7,88

Leite

R$ 2,74

Leia mais