O EDPB está preocupado com o chatbot ChatGPT da OpenAI devido à falta de transparência e precisão dos dados. Investigadores estão a analisar o cumprimento das regras de proteção de dados da UE.
A European Data Protection Board (EDPB) levantou preocupações sobre o chatbot ChatGPT da OpenAI. O conselho afirma que as medidas tomadas para garantir transparência são insuficientes para cumprir os princípios de precisão de dados. Em um relatório divulgado na sexta-feira, a força-tarefa da EDPB enfatizou que, embora os esforços para evitar a má interpretação da saída do ChatGPT sejam benéficos, ainda é necessário abordar totalmente as preocupações em relação à precisão dos dados.
Neste artigo vão encontrar:
A força-tarefa foi estabelecida pelos órgãos de controle de privacidade nacionais da Europa após preocupações levantadas pelas autoridades italianas em relação ao uso do ChatGPT. Apesar das investigações em andamento pelos reguladores nacionais, uma visão abrangente dos resultados ainda não foi fornecida. As conclusões apresentadas no relatório representam um entendimento comum entre as autoridades nacionais.
A precisão dos dados é um princípio fundamental das regulamentações de proteção de dados na UE. O relatório destaca a natureza probabilística do sistema do ChatGPT, que pode levar a saídas tendenciosas ou falsas. Além disso, o relatório alerta que os utilizadores podem perceber as saídas do ChatGPT como factualmente corretas, independentemente da sua precisão real, representando riscos potenciais, especialmente em relação a informações sobre indivíduos.
O relatório da força-tarefa da EDPB orientará as autoridades de proteção de dados dos países membros à medida que investigarem a conformidade da OpenAI com os requisitos do Regulamento Geral de Proteção de Dados (GDPR) da União Europeia. Aspectos das investigações incluem a legalidade da coleta de dados de treinamento para o ChatGPT, transparência e precisão dos dados.
De acordo com a Reuters, o relatório deixa claro que o ChatGPT não está a cumprir os padrões de precisão de dados necessários para garantir conformidade com as regras de dados da UE. A força-tarefa acrescentou no relatório que a abordagem para treinar o modelo pode resultar em saídas tendenciosas ou inventadas e que a precisão dos dados é um dos princípios orientadores das regras do GDPR.
Em abril de 2023, a Itália proibiu o uso do ChatGPT por preocupações com a privacidade, mas tornou-o disponível novamente depois que a OpenAI afirmou ter cumprido as exigências da autoridade italiana de proteção de dados. A Itália tornou-se o primeiro país ocidental a proibir o chatbot após a autoridade de proteção de dados do país anunciar uma investigação sobre a alegada violação das regras de privacidade do GDPR e práticas de verificação de idade do ChatGPT.
Em suma, a European Data Protection Board levantou sérias preocupações sobre a conformidade do ChatGPT com os padrões de precisão de dados da UE. Embora a OpenAI tenha feito esforços para melhorar a transparência, o relatório da força-tarefa da EDPB indica que mais precisa ser feito para garantir a precisão das saídas do ChatGPT e proteger os dados individuais. Os reguladores nacionais em toda a Europa continuam a investigar o assunto, e o resultado dessas investigações provavelmente terá implicações significativas para o futuro do ChatGPT e de outros chatbots de IA na UE.
Formado em Informática / Multimédia trabalho há 10 anos em Logística no Ramo Automóvel. Tenho uma paixão pelas Novas Tecnologias , cresci com computadores e tecnologias sempre presentes, assisti à evolução até hoje e continuo a absorver o máximo de informação sou um Tech Junkie. Viciado em Smartphones e claro no AndroidGeek.pt
Post anterior