
O Comité Europeu de Proteção de Dados (CEPD) acaba de publicar o documento “AI Privacy Risks & Mitigations – Large Language Models (LLMs)”, disponível apenas em inglês, um guia prático com orientações e ferramentas para gerir os riscos associados à proteção de dados pessoais em tecnologias de inteligência artificial (IA) baseados em modelos de linguagem LLMs - Large Languagem Models.
O documento propõe uma metodologia abrangente para a identificação, avaliação e mitigação de riscos de privacidade e proteção de dados associados aos LLMs. Essa metodologia é, depois, aplicada a três casos concretos, nomeadamente na utilização de um assistente virtual (chatbox) para responder a perguntas de clientes, com ligação à base de dados da empresa; no desenvolvimento de uma ferramenta de monitorização e suporte a estudantes, que emite sugestões, em especial quando as notas baixam; e um assistente de IA para gestão de viagens e da agenda pessoal. A metodologia de gestão de riscos é adaptada às várias etapas da implementação de cada uma destas ferramentas.
Com este documento, as Autoridades de Proteção de Dados poderão obter um conhecimento aprofundado sobre o funcionamento dos sistemas baseados em LLMs e os desafios de privacidade que apresentam, garantindo uma abordagem informada e atualizada para a sua regulamentação. Também para os programadores, a metodologia pode ajudar no cumprimento dos artigos 25º (proteção de dados desde a conceção e por defeito) e 32º (segurança no tratamento) do Regulamento Geral de Proteção de Dados, dando uma estrutura que apoiará, por exemplo, no desenvolvimento da avaliação de impacto sobre a proteção de dados sempre que requerido (artigo 35º).
Os LLMs representam um avanço significativo na inteligência artificial: como modelos de deep learning, são treinados com grandes volumes de dados que processam, gerando linguagem semelhante à humana. E se estes modelos têm a grande vantagem de automatizar tarefas e melhorar a produtividade, também introduzem significativos riscos à privacidade e à partilha de dados pessoais. Os utilizadores que pretendam proteger os seus dados quando usam estes sistemas de IA podem também consultar o documento que apresenta os riscos mais frequentes e formas de os minimizar.