O Estado de S. Paulo

Usuário pode bloquear uso de dados pessoais para treinar sistemas de IA

Plataformas têm usado mensagens e outras interações para desenvolver suas ferramentas de inteligência artificial

ESTE CONTEÚDO FOI TRADUZIDO COM O AUXÍLIO DE FERRAMENTAS DE INTELIGÊNCIA ARTIFICIAL E REVISADO POR NOSSA EQUIPE EDITORIAL.

Cuidado com o que você diz a um chatbot. Sua conversa pode ser usada para melhorar o sistema de inteligência artificial (IA) por meio do qual ele foi criado.

Se você pedir conselhos ao ChatGPT sobre sua condição médica embaraçosa, saiba que tudo o que você revelar poderá ser usado para ajustar os algoritmos da OpenAI que sustentam seus modelos de IA. O mesmo acontece se, por exemplo, você fizer upload de um relatório confidencial da empresa para o Gemini, do Google, para resumi-lo em uma reunião.

Não é segredo que os modelos de IA que sustentam os chatbots populares foram treinados com enormes quantidades de informações extraídas da internet, como publicações em blogs, artigos de notícias e comentários em mídias sociais, para que possam prever a próxima palavra ao responder à sua pergunta.

Esse treinamento muitas vezes foi feito sem consentimento, o que gera preocupações com direitos autorais. E, segundo os especialistas, dada a natureza opaca dos modelos de inteligência artificial, provavelmente é tarde demais para remover quaisquer dados seus que já tenham sido usados por determinado sistema.

Mas o que você pode fazer daqui para frente é impedir que qualquer interação do seu chatbot seja usada para treinamento de IA. Isso nem sempre é possível, mas algumas empresas dão essa opção aos usuários. •

AP

Uso sem consentimento de informações na internet gera preocupações com direitos autorais

INOVAÇÃO | IDEIAS & EMPREENDEDORISMO

pt-br

2024-08-21T07:00:00.0000000Z

2024-08-21T07:00:00.0000000Z

https://digital.estadao.com.br/article/282157886575192

O Estado