Uma realidade frustrante para os criadores de hoje é que seu trabalho está exposto ao treinamento de IA. Empresas de tecnologia que desenvolvem IA generativa, como ChatGPT, Gemini, DeepSeek, Stable Diffusion e Midjourney, precisam de grandes conjuntos de dados para treinar seus modelos, e têm coletado dados da internet pública para fazer isso.

Isso levantou questões importantes sobre consentimento, atribuição e controle sobre o trabalho criativo depois de ser compartilhado on-line.

Se você está procurando maneiras de proteger melhor seus dados criativos, este guia descreve passos práticos que você pode tomar para reduzir como seu trabalho é usado no treinamento de IA, enquanto continua interagindo com a internet nos seus próprios termos.

Como o treinamento de IA em conteúdo público pode colocar o trabalho criativo em risco

Ferramentas de IA generativa exigem uma grande quantidade de dados para funcionar, e muitos desses dados são provenientes da internet. A OpenAI declarou publicamente(nova janela) que seria “impossível” treinar IA como o ChatGPT sem acesso a material protegido por direitos autorais encontrado on-line.

Trabalhos criativos de portfólios on-line, plataformas de redes sociais e blogs estão sendo usados para treinar esses modelos sem consentimento ou atribuição. Por exemplo, a Meta admitiu(nova janela) ter raspado publicações, fotos e comentários compartilhados publicamente no Facebook e no Instagram desde 2007 para treinar seus modelos de IA generativa. Isso significa que qualquer trabalho criativo que você já compartilhou publicamente nessas plataformas — como fotos de casamento, fotos de portfólio ou ilustrações — pode ser usado para treinamento de IA, a menos que você tenha definido a visibilidade como privada.

Empresas de IA argumentaram em processos judiciais(nova janela) em andamento que o treinamento em dados raspados da internet se enquadra no “uso justo” (fair use). Ao mesmo tempo, tratam os modelos e conjuntos de dados resultantes como ativos proprietários. Os termos de serviço da OpenAI proíbem “usar a Saída para desenvolver modelos que concorram com a OpenAI”, e a empresa acusou a DeepSeek de copiar “inapropriadamente”(nova janela) seus modelos — os mesmos modelos treinados com dados da internet disponíveis publicamente.

Esse aparente padrão duplo ajuda a explicar por que muitos criadores sentem que seu trabalho está vulnerável ao treinamento de IA sem seu consentimento, crédito ou compensação. Também levanta questões mais amplas sobre como o conteúdo “disponível publicamente” é interpretado, especialmente quando o trabalho criativo é compartilhado em plataformas cujas licenças limitam explicitamente a reutilização não autorizada ou a exploração comercial. Como resultado, muitos artistas, escritores e fotógrafos estão cada vez mais reagindo contra a raspagem de dados por IA.

Como impedir que a IA use sua arte

Com os tribunais ainda emitindo decisões caso a caso e sem um padrão legal claro em vigor, os criadores não podem confiar apenas no sistema legal para proteger seu trabalho. Enquanto isso, existem passos práticos que você pode tomar agora mesmo para reduzir como seu trabalho é usado no treinamento de IA.

Nenhuma dessas estratégias é infalível, no entanto; ferramentas de proteção e empresas de IA estão sempre tentando superar umas às outras. Por enquanto, pense nelas como partes individuais da sua armadura que funcionam melhor coletivamente. Estas são as melhores maneiras de ter mais controle sobre seus dados criativos:

Camufle seu estilo artístico

Ferramentas de camuflagem como o Glaze(nova janela) dificultam o treinamento de modelos de IA no seu trabalho fazendo pequenas alterações nos pixels que confundem os modelos de IA. A imagem aparece como pretendido para humanos, mas para um raspador de IA, ela é registrada como um estilo diferente ou distorcido.

“Envenene” sua arte

Usando ferramentas como o Nightshade(nova janela), você pode tornar suas obras de arte venenosas para raspadores de IA. Uma imagem “envenenada” contém alterações sutis e invisíveis que interferem no treinamento da IA, fazendo com que o sistema interprete mal o que está vendo, como carros em vez de gatos, ou nuvens em vez de aviões. Com o tempo, se imagens envenenadas suficientes forem usadas para treinamento, essas associações erradas podem aparecer em versões futuras do modelo.

No entanto, proteções técnicas como Glaze e Nightshade não são infalíveis, e pesquisas(nova janela) mostram que elas podem ser enfraquecidas à medida que os sistemas de IA evoluem.

Opte por não participar do treinamento de IA

Se o seu trabalho existe on-line, é provável que tenha sido raspado para um modelo de IA. Usando sites como Have I Been Trained(nova janela) e o AI Watchdog(nova janela) do The Atlantic, você pode verificar se suas imagens, textos ou outros trabalhos criativos aparecem em conjuntos de dados conhecidos usados para treinar modelos de IA. O primeiro permite que você envie seu trabalho para um registro de Não Treinar, onde as empresas participantes podem identificar e excluir essas imagens de futuros treinamentos. No entanto, essas medidas são voluntárias, dependem da disposição das empresas individuais em honrá-las e não afetam modelos que já foram treinados usando seu trabalho.

Se você mora na UE, pode usar leis de proteção de dados como o GDPR(nova janela) a seu favor solicitando que as empresas excluam seu conteúdo do treinamento de IA. Algumas empresas têm processos de exclusão enterrados nas configurações de seus aplicativos; por exemplo, aqui está como optar por não participar do uso de dados da Meta AI no Facebook, Instagram e WhatsApp.

Reforce suas configurações de privacidade

Reduza o que você publica publicamente nas redes sociais e certifique-se de que seu perfil esteja definido como privado. Quanto menos conteúdo estiver abertamente acessível, mais difícil será para ser raspado por sistemas de IA externos. Mas isso pode não ser suficiente para protegê-lo da própria plataforma, já que muitas empresas integram cada vez mais recursos de IA — como a Meta usando todas as interações da Meta AI para treinamento e anúncios — levantando questões sobre como o conteúdo público e privado pode ser usado ao longo do tempo. É melhor evitar usar as redes sociais como seu arquivo ou portfólio principal.

Seja intencional sobre o compartilhamento público

Ao publicar publicamente para alcançar seu público, compartilhe versões menores, de baixa resolução ou com marca d’água do seu trabalho. Mantenha arquivos de qualidade total armazenados em backups off-line ou serviços de nuvem que claramente não usam conteúdo privado para treinamento de IA.

Armazene e compartilhe arquivos com segurança

À medida que as ferramentas de IA se tornam mais profundamente integradas nas principais plataformas — como o Google adicionando o Gemini em todos os lugares, incluindo Google Drive e Gmail — as pessoas estão cada vez mais cautelosas sobre como armazenar e compartilhar seu trabalho.

O Proton Drive fornece armazenamento e compartilhamento criptografados de ponta a ponta para suas fotos, vídeos, álbuns, documentos, planilhas e outros arquivos. Nós nunca coletamos, processamos, compartilhamos seus dados com terceiros ou os usamos para treinamento de IA. Ao contrário das Big Tech, a Proton é totalmente apoiada por nossa comunidade de assinantes pagantes, em vez de publicidade ou uso de dados.

Você pode compartilhar links protegidos por senha, definir datas de expiração, conceder acesso a pessoas específicas apenas via e-mail e revogar o acesso a qualquer momento. Você também pode coletar arquivos com segurança de pessoas sem uma conta da Proton.

Use IA privada sem abrir mão do controle

Se você quer os benefícios da IA sem abrir mão do controle sobre seu trabalho, e sem se preocupar que uma mudança futura de política possa transformar repentinamente seus arquivos em dados de treinamento, use nosso assistente de IA privado(nova janela). O Lumo nunca treina com seus arquivos ou conversas, e é baseado em código aberto, o que significa que qualquer pessoa pode verificar nossas alegações.

O Lumo integra-se ao Proton Drive, permitindo que você trabalhe com segurança com seus arquivos e gere imagens, sem contribuir para o ecossistema de raspagem de IA contra o qual tantos indivíduos e organizações estão reagindo ativamente.

Sua arte é um dado sensível

Parar o roubo de arte por IA não significa rejeitar a IA completamente. Mas significa reconhecer que o trabalho criativo é um dado sensível, seja uma ilustração, um romance ou uma música. Os criadores merecem agência e tratamento justo, incluindo a capacidade de decidir como e se seu trabalho é usado.

Nenhuma estratégia única pode impedir totalmente que sistemas de IA absorvam conteúdo disponível publicamente — e em alguns casos, conteúdo privado exposto indiretamente — em seu treinamento. E as empresas de IA farão você acreditar que não há como construir ferramentas de IA sem usar seus dados. Nós discordamos(nova janela).

Até que reguladores e tribunais forneçam orientações mais claras, a abordagem mais eficaz é ser proativo sobre como você interage com a internet e escolher plataformas que respeitem claramente sua privacidade e direitos criativos.