Imagens ‘à la Studio Ghibli’ e Action Figures: as novas ‘ratoeiras’ de casos de Data Leaks?

Por João Alves, Head of IT da consultora LTPlabs

No passado dia 25 de março, a OpenAI lançou o Image Generation, o novo gerador de imagens do ChatGPT. Em poucas horas, os feeds das redes sociais de todo o mundo foram inundados com imagens individuais e corporativas com o filtro ‘à la Studio Ghibli’. Logo a seguir, cada um de nós coube numa caixa de plástico virtual de Action Figures.

No entanto, estes fenómenos virais — cujo excesso de procura levou ao crash dos servidores da OpenAI — e aparentemente inofensivos fizeram soar mais uma vez os alertas para as implicações do uso destas ferramentas de Inteligência Artificial Generativa (IA-Gen) em contextos pessoais e sobretudo profissionais.

Isto porque, as milhares de fotos reais que foram inseridas no ChatGPT para este criar as tais imagens divertidas e nostálgicas, assim como os textos que as acompanham, vão agora ficar para sempre em arquivo para treinar (aperfeiçoar) e alimentar as bases de dados que os robots de conversação (chatbots) utilizam para apresentar respostas a qualquer user.

É inquestionável que, desde a sua apresentação, em finais de 2022, o ChatGPT — e outras plataformas de IA — se expandiu de forma rápida e global, tornando-se num recurso valioso para todos. Porém, este acesso democratizado também tem originado em meios académicos e laborais diversos e sucessivos casos de Data Leaks.

 

Samsung e Amazon: grandes fugas de informação por causa do ChatGPT

A primeira situação com dimensão de uma empresa reportar uma fuga de conteúdos relacionada com o ChatGPT foi a Samsung. Em causa estava o facto de alguns colaboradores terem partilhado com este sistema informações confidenciais como: código-fonte (base da programação) de produtos proprietários, atas de reuniões e detalhes de hardware que ainda não tinha sido anunciado.

Estes três episódios comprometedores aconteceram todos num só mês, levando esta grande tecnológica a proibir imediatamente o recurso a este ‘software humanizado’ e, como alternativa, a desenvolver uma solução de Inteligência Artificial Generativa para uso exclusivo das suas equipas.

Outro caso notório foi o da Amazon, que também aboliu o ChatGPT nos seus domínios, uma vez que verificou que as respostas que este robot de conversação devolvia às perguntas de qualquer utilizador sobre a empresa eram muito parecidas com o código-fonte (que é fechado) da própria Amazon, expondo assim assuntos privados.

 

Estudo: mais de metade dos colaboradores partilha conteúdos da empresa em plataformas de IA

Contudo, estes dois gigantes — Samsung e Amazon — não estão sozinhos neste ‘drama’. Um estudo da Cisco de 2025 sobre privacidade e segurança da informação dá conta de que mais de metade dos colaboradores das empresas sujeitas ao questionário insere dados de trabalho (alguns sigilosos) em plataformas de IA.

Em contraponto, e segundo o referido documento, a segunda maior preocupação manifestada pelos inquiridos (profissionais de cibersegurança) é que os assuntos partilhados nestes chatbots sejam sugeridos como resposta a qualquer pessoa, nomeadamente à concorrência.

O trabalho indica ainda que 86% das organizações reconhece o valor significativo que estes companheiros digitais representam no dia a dia. Mas, afinal, como está a reagir o tecido empresarial aos potenciais riscos destas ferramentas? Tipicamente, adotam uma de três abordagens.

 

Como é que as empresas protegem os seus dados em plataformas como o ChatGPT

Um dos posicionamentos mais comuns prende-se com a proibição total, ou seja, com bloquear o acesso a esta tecnologia de Inteligência Artificial Generativa nas redes e nos computadores, porque o perigo de fuga de informação é demasiado elevado.

Outra opção é comprar produtos off-the-shelf com garantias de privacidade, tais como o ChatGPT Enterprise ou o Microsoft 365 Copilot. Isto porque estas subscrições afiançam manter a peugada digital de cada um 100% sigilosa e ainda não fazer uso da mesma para treinar modelos de IA-Gen públicos (como a versão gratuita do ChatGPT).

Por último, soluções híbridas, as quais podem passar por duas situações. Cada empresa criar ‘o seu próprio ChatGPT’ (só estrutura), o qual depois é alimentado pela IA Generativa (conteúdos) alojada em clouds públicas (da Microsoft, Google ou Amazon) que asseguram confidencialidade. Outra possibilidade é usar modelos públicos (como o DeepSeek ou o Llama, pois o ChatGPT é privado), mas a informação de cada entidade estar alojada em clouds privadas.

É certo que sistemas como o ChatGPT são grandes aceleradores da inovação, mas também comportam ameaças. Por isso, cada vez mais, e bem, os organismos estão a dar formação aos colaboradores para que estes compreendam os potenciais problemas de introduzir dados, sobretudo sensíveis, nas mesmas.

Em suma, as tecnologias que integram IA-Gen já revolucionaram, a nível macro e micro, o quotidiano das entidades. Todavia, exigem gestão cuidadosa e regras claras para evitar riscos. Entre a eficiência e a segurança, é fundamental encontrar um ponto de equilíbrio que proteja os ativos mais valiosos de qualquer marca: informação e reputação.

Por isso, é imprescindível que cada um de nós, na esfera privada e laboral, tenha muita atenção e não se deixe seduzir por ‘ratoeiras fofinhas’ como os filtros ‘à la Studio Ghibli’ e Action Figures, pois podem perfeitamente ser a alavanca mascarada dos próximos Data Leaks.

 

 


OSZAR »