Ferramenta adultera imagens e textos para que os robôs não consigam copiar ou se basear nos trabalhos previamente feitos
Uma nova ferramenta permite aos artistas “envenenarem” obras, para que as inteligências artificiais não se baseiem ou roubem partes delas. A novidade está sendo desenvolvida por pesquisadores da Universidade de Chicago, nos EUA.
Conhecido como Nightshade, o programa também tem sido observado pelo MIT Technology Review. Ele funciona alterando pixels de uma forma invisível ao olho humano, mas que adultera a arte para qualquer robô que deseje utilizá-la para algum fim.
Os desenvolvedores explicam que esse sistema faz com que as IAs aprendam os nomes errados dos objetos e cenários que estão olhando. Por exemplo, os pesquisadores incluíram informações em imagens de cães que os faziam parecer gatos aos robôs.
O software também foi testado em sites geradores de textos e funcionou perfeitamente, fazendo com que palavras fossem trocadas ou confundidas.
Nightshade está sendo apoiado por artistas
PIXABAY
“A esperança é que isso ajude a inclinar o equilíbrio de poder das empresas de IA em direção aos artistas, criando um poderoso impedimento contra o desrespeito aos direitos autorais e à propriedade intelectual dos artistas”, escreveu o MIT em artigo sobre a ferramenta.
Desde o início da era das big datas, vários pintores, compositores e até mesmo produtoras entraram com ações judiciais contra companhias de tecnologia, como a OpenAI, empresa do ChatGPT, para tentar evitar plágios ou a criação de trabalhos concorrentes por meio de IA.