Usuário pode bloquear uso de dados pessoais para treinar sistemas de IA
Plataformas têm usado mensagens e outras interações para desenvolver suas ferramentas de inteligência artificial
ESTE CONTEÚDO FOI TRADUZIDO COM O AUXÍLIO DE FERRAMENTAS DE INTELIGÊNCIA ARTIFICIAL E REVISADO POR NOSSA EQUIPE EDITORIAL.
Cuidado com o que você diz a um chatbot. Sua conversa pode ser usada para melhorar o sistema de inteligência artificial (IA) por meio do qual ele foi criado.
Se você pedir conselhos ao ChatGPT sobre sua condição médica embaraçosa, saiba que tudo o que você revelar poderá ser usado para ajustar os algoritmos da OpenAI que sustentam seus modelos de IA. O mesmo acontece se, por exemplo, você fizer upload de um relatório confidencial da empresa para o Gemini, do Google, para resumi-lo em uma reunião.
Não é segredo que os modelos de IA que sustentam os chatbots populares foram treinados com enormes quantidades de informações extraídas da internet, como publicações em blogs, artigos de notícias e comentários em mídias sociais, para que possam prever a próxima palavra ao responder à sua pergunta.
Esse treinamento muitas vezes foi feito sem consentimento, o que gera preocupações com direitos autorais. E, segundo os especialistas, dada a natureza opaca dos modelos de inteligência artificial, provavelmente é tarde demais para remover quaisquer dados seus que já tenham sido usados por determinado sistema.
Mas o que você pode fazer daqui para frente é impedir que qualquer interação do seu chatbot seja usada para treinamento de IA. Isso nem sempre é possível, mas algumas empresas dão essa opção aos usuários. •
AP
Uso sem consentimento de informações na internet gera preocupações com direitos autorais
INOVAÇÃO | IDEIAS & EMPREENDEDORISMO
pt-br
2024-08-21T07:00:00.0000000Z
2024-08-21T07:00:00.0000000Z
https://digital.estadao.com.br/article/282157886575192
O Estado