PROCESSO Nº 00261.006920/2024-46

 

Timbre
Autoridade Nacional de Proteção de Dados
Coordenação-Geral de Normatização
Coordenação de Normatização 1

Nota Técnica nº 12/2025/CON1/CGN/ANPD

INTERESSADO

COORDENAÇÃO-GERAL DE NORMATIZAÇÃO

ASSUNTO

Consolidação das contribuições recebidas na Tomada de Subsídios.

REFERÊNCIAS

Processo SEI/ANPD nº 00261.006920/2024-46.

RELATÓRIO

Trata-se do projeto que visa à Regulamentação do Item 7 da Agenda Regulatória da Autoridade Nacional de Proteção de Dados (ANPD) para o biênio 2025-2026, aprovada pela Resolução nº 23, de 09 de dezembro de 2024 (SEI/ANPD nº 0160131) - Inteligência Artificial.

Conforme Termo de Abertura de Projeto (TAP) (SEI/ANPD nº 0118175),

para além da determinação legal de regulamentar o disposto na LGPD, em especial o disposto no art. 20 da Lei, que trata do direito do titular de solicitar revisão de decisões automatizadas, a ANPD pode endereçar melhor o tema por meio de documentos orientativos, como guias e estudos técnicos, uma vez que o assunto está sendo bastante utilizado pelos agentes de tratamento, frente à vulnerabilidade do titular que não possui conhecimento avançado sobre o tema.

Assim é que, a fim de verificar a perspectiva da sociedade sobre o tema – incluindo aí titulares, agentes de tratamento e diferente setores e modelos de negócio, esta Coordenação-Geral optou por realizar Tomada de Subsídios, nos termos dos arts. 18 a 22 da Portaria nº 16, de 8 de julho de 2021, que aprova o processo de regulamentação no âmbito da Autoridade. In verbis:

Art. 18. A Tomada de Subsídios visa obter insumos para o processo de regulamentação e pode ser realizada a qualquer momento, a critério da Equipe de Projeto. § 1º A Tomada de Subsídios não representa o posicionamento final da ANPD.

Nesse contexto, foi comunicada a referida Tomada, por meio do Despacho SEI/ANPD º0154149, a ser realizada entre os dias 6 de novembro e 5 de dezembro de 2024, com prorrogação por meio de novo Despacho (SEI/ANPD nº 0157773) até o dia 24 de janeiro de 2025.

Foram elaboradas 15 perguntas, divididas em 5 (cinco) blocos, da seguinte forma (SEI/ANPD nº 0154546):

Bloco 1 - Princípios da LGPD

Bloco 2 - Hipóteses Legais

Bloco 3 - Direitos dos Titulares

Bloco 4 - Boas Práticas e Governança

Foi, então, publicada a Consulta à Sociedade em formato de Tomada de Subsídios e disponibilizada para contribuições por meio da Plataforma Participa Mais Brasil.

É o Relatório.

ANÁLISE

Das Contribuições Recebidas

No âmbito da Plataforma foram recebidas 99 (noventa e nove) contribuições e 25 (vinte e cinco) contribuições em formato .pdf por meio do correio eletrônico institucional normatizacao@anpd.gov.br. Estas se deram pela justificativa que o espaço para preenchimento disponível no Opine Aqui da Plataforma Participa Mais Brasil não era disponível para submissão do conteúdo integral da contribuição. Tais considerações foram devidamente analisadas pela Equipe de Projeto e juntadas ao processo, conforme Certidão (SEI/ANPD nº 0178829). Ressalte-se que as contribuições em formato PDF foram anexadas ao processo em epígrafe (SEI/ANPD nº 0173508), assim como as contribuições provenientes da Plataforma Participa Mais Brasil (SEI/ANPD nº 0173510).

Assim, de um total de 124 (cento e vinte e quatro) participantes, aproximadamente 56% (70 participantes) declararam ter respondido em nome de algum agente de tratamento. Por outro lado, 44% (54 participantes) não se identificaram como representantes de qualquer agente, conforme ilustrado no Gráfico 01:


Gráfico 01 - Pessoas que responderam ao questionário em nome de algum agente de tratamento de dados pessoais.

Em relação à origem das contribuições, houve 9 (7%) contribuições de origem internacional, enquanto outras 115 (93%) foram de origem nacional, vide Gráfico 02. Os participantes nacionais representaram as 5 (cinco) regiões do Brasil havendo maior expressividade na região Sudeste (61%), seguida pela região Centro-oeste (16%), região Sul (4%) e região Nordeste (4%), 15% dos participantes não identificaram sua região de origem, conforme pode ser visto no Gráfico 03. da seguinte forma:


Gráfico 02 - Contribuições por nacionalidade

 


Gráfico 03 - Contribuições por região do Brasil

Essa tomada de subsídios contou com contribuições de pessoas físicas (50%), empresas da iniciativa privada (25%), organizações do terceiro setor (22%) e instituições públicas (3%), vide Gráfico 4. Dentre as pessoas físicas há 18 advogados (33%), 3 professores (6%), 3 designers (6%), e 2 analistas e desenvolvedores de sistemas (4%), 5 participantes (9%) informaram outras profissões, e 23 participantes não informaram (42%), conforme pode ser visto no Gráfico 5.


Gráfico 04Tipo do Participante

 

Inserindo imagem...
Gráfico 05 - Profissão do participante

Metodologis da Análise

As análises foram realizadas, mesmo não se tratando de Consulta Pública de normativo, nos termos da legislação aplicável, procedendo-se de forma similar com objetivo de favorecer a transparência e a participação social.

Nesse sentido, foi realizada a eliminação das contribuições repetitivas, em conformidade com o parágrafo único do art. 19 do Decreto nº 10.411/2020 e com o § 6º do art. 62, do Regimento Interno da ANPD (RIANPD), estabelecido pela Portaria nº 1, de 8 de março de 2021.

Neste ensejo, cabe destacar que o juízo de admissibilidade de tais contribuições levou em consideração a pertinência com o escopo Projeto – Item 7 da Agenda Regulatória - e o teor duplicado com as outrora analisadas.

As contribuições foram consolidadas em 15 (quinze) arquivos, que correspondem a cada questão submetida à Tomada de Subsídios. Tanto as contribuições submetidas por e-mail, em formato .pdf, quanto as contribuições submetidas no âmbito da Plataforma foram consolidadas nos mesmos documentos. 

Consolidação das contribuições: convergências e divergências

Conforme se verá a seguir, a análise das contribuições nesta Nota Técnica foram consolidadas de modo a delinear um cenário no qual se verificam pontos de consenso entre as diversas contribuições, mas, também, divergências. Assim, optou-se aqui por destacar tais questões em formato de bullets, a fim de facilitar à equipe de projeto a análise de mérito das contribuições e, com isso, eventualmente utilizá-las como parâmetros na elaboração dos produtos relativos ao projeto de regulamentação.

As contribuições provenientes da Plataforma Participa+Brasil também estão disponíveis e podem ser acessadas pelo SEI/ANPD nº 0173510.

Sublinha-se, ainda, que as contribuições encaminhadas por e-mail foram anexadas ao Processo em epígrafe; contudo, algumas não foram disponibilizadas em formato público, a pedido dos contribuintes, em razão de segredos de ordem comercial ou industrial. Os eventuais pedidos de acesso a tais documentos serão analisados individualmente por esta Autoridade

A seguir, tem-se cada uma das 15 (quinze) questões, com as respectivas convergências e divergências.

BLOCO I - PRINCÍPIOS DA LGPD

Pergunta 1 - Como compatibilizar o treinamento de sistemas de IA com o princípio da necessidade, haja vista se tratar de atividade que, muitas vezes, demanda o tratamento de quantidades massivas de dados pessoais? Quais salvaguardas podem ser adotadas de modo a assegurar a observância desse princípio e viabilizar o desenvolvimento adequado de sistemas de IA, considerando, ainda, a importância da qualidade e diversidade dos dados utilizados?

As contribuições relativas ao primeiro questionamento trataram dos meios sobre como compatibilizar o treinamento de sistemas de IA com o princípio da necessidade, considerando a demanda por grandes volumes de dados pessoais. As contribuições convergem em alguns pontos principais, ao mesmo tempo que apresentam divergências em relação à interpretação e à aplicação do princípio da necessidade.

Pontos de convergência

Dentre os pontos que convergem a semelhante análise do princípio da necessidade estão os seguintes:

Anonimização, pseudonimização e dados sintéticos: a utilização dessas técnicas é fundamental, nos termos das contribuições analisadas, para reduzir a dependência de dados pessoais, em especial nas fases de desenvolvimento e treinamento.

Privacy by design: a incorporação de medidas de proteção de dados desde a concepção do sistema e assim identificar as informações que serão realmente necessárias para o atingimento da finalidade, nos termos de alguns frameworks de respaldo, tais como o NIST Privacy Framework e a ISO/IEC 27701.

Avaliação de impacto: as contribuições apontam para a realização de análises de impacto à proteção de dados pessoais para a identificação de riscos e mitigação de dados à privacidade, nos termos do art. 38 da LGPD, mencionando, ainda, a necessidade específica de avaliação de impacto algorítmico.

Também foi apontada a necessidade de relatórios de avaliação de impacto especificamente para os casos em que há tratamento de dados pessoais de crianças e adolescentes.

Governança de dados: a definição de políticas claras para a coleta, uso, retenção e descarte de dados pessoais. Houve, ainda, contribuição que reputou como fundamental que algumas tecnologias, como modelos de machine learning com potencial de ocasionar risco ao titular nas decisões tomadas devem ser monitoradas e acompanhadas por um Comitê de Governança de IA definindo guardrails diferentes para cada nível de risco, controles esses que podem implicar na deliberação da não aprovação de uso da referida IA.

Transparência: o titular deve ser informado sobre a origem, forma de coleta, finalidade e procedimentos de tratamento de seus dados pessoais. Nesse sentido, as contribuições apontam o seguinte, em resumo:

Modelos e conjunto de dados devem ser acompanhados de documentação que tenha informação detalhada sobre: estrutura, manutenção e finalidade de uso. Isso proporciona transparência, facilita fiscalização e auxilia na conformidade regulatória.

Transparência e explicabilidade devem ser promovidas a partir de meios de comunicação acessíveis ao titular.

Controle de acesso: implementação de medidas para restringir o acesso aos dados de treinamento. Há contribuição que sugere o uso de dados anonimizados ou sintéticos para experimentação inicial, serviços de redução de dados pessoais (PII redaction services), revisões éticas e controle de acesso. Também ressalta que as salvaguardas devem ser concentradas nas fases de coleta e aplicação do sistema, e não nas etapas de desenvolvimento, embora mencione o controle de acesso a base de dados de treino.

Pontos de divergência

Acerca dos pontos divergentes, podem ser mencionados os seguintes:

  1. Visão restritiva: alguns defendem uma interpretação mais estrita, enfatizando a minimização do uso de dados pessoais e a necessidade de limitar a coleta ao mínimo necessário. Argumentam que o princípio da necessidade não é compatível com o tratamento em larga escala para o treinamento de soluções de IA.

  1. Visão pragmática: outros defendem uma interpretação mais flexível, reconhecendo que o treinamento de IA muitas vezes demanda grandes volumes de dados para garantir a qualidade e eficácia dos sistemas. Argumentam que o princípio da necessidade não proíbe o uso de grandes volumes de dados, desde que haja salvaguardas adequadas e uma finalidade legítima. Alguns propõem uma reinterpretação do princípio da necessidade para permitir a coleta de mais dados em determinadas circunstâncias. Assim, segundo uma variedade de contribuições, o princípio da necessidade acaba por esbarrar no contexto de treinamento de IA de larga escala, no qual se pressupõe quantidades massivas de dados para treinamento. Ainda, uma das contribuições afirma que o princípio não é incompatível com o tratamento em larga escala para o treinamento de soluções de IA. A limitação deve ser guiada por uma análise criteriosa dos dados realmente necessários e pelo uso de medidas técnicas que restrinjam a coleta a dados pertinentes. Finalmente, outra contribuição ressalta que o princípio da necessidade não se confunde com volumetria de dados, ou seja, como salvaguarda é importante garantir o uso de dados mínimos necessários, o que não se confunde com baixa volumetria, mas, que haja finalidade definida, afastando, assim, o uso excessivo de dados.

Assim, em resumo, verifica-se que as contribuições refletem a complexidade de compatibilizar o desenvolvimento de sistemas de IA com a proteção de dados pessoais. Embora haja um consenso sobre a necessidade de encontrar um equilíbrio e adotar salvaguardas, existem diferentes visões sobre como interpretar e aplicar o princípio da necessidade, bem como sobre quais medidas de proteção devem ser obrigatórias.

Pergunta 2 - Quais boas práticas e salvaguardas devem ser observadas visando à definição de finalidades específicas e à divulgação de informações claras e adequadas e facilmente acessíveis aos titulares a respeito do tratamento de dados pessoais realizado durante o desenvolvimento e uso de sistemas de IA?

As contribuições à pergunta 2 apresentam diversos pontos sobre as boas práticas e as salvaguardas a serem observadas na definição de finalidades específicas e na divulgação de informações claras sobre o tratamento de dados pessoais no contexto dos sistemas de IA.

Pontos de convergência

Dentre os pontos que convergem a semelhante análise do princípio da necessidade estão os seguintes:

Pontos de divergência

 Sobre os principais pontos de divergência, têm-se:

Pergunta 3 - Como compatibilizar os princípios da finalidade e da transparência com o uso de sistemas de IA de propósito geral, isto é, sistemas que possam realizar uma ampla variedade de tarefas distintas e servir a diferentes finalidades?

As respostas à Pergunta 3 trouxeram luz a questões sobre os princípios da finalidade e da transparência relacionadas à aplicação de IA de propósito geral, abordando temas como avaliação de risco, definição de finalidade, medidas de salvaguarda e transparência, etc. Como segue, foram identificados os seguintes pontos de convergência e divergência:

Pontos de convergência

Pontos de divergência

Sobre os pontos de divergência, destacam-se:

Assim é que as contribuições convergem na importância da transparência, da definição clara de finalidades, da avaliação de riscos, da governança e do monitoramento, da implementação de canais de atendimento e do uso de políticas de privacidade. No entanto, há divergências sobre a base legal para GPAI, o nível de especificidade da finalidade, a responsabilidade pela definição da finalidade, o momento da avaliação da limitação de propósito e a responsabilidade dos desenvolvedores.

Pergunta 4 - Quais boas práticas e salvaguardas, bem como parâmetros ou critérios, devem ser considerados ao longo de todo o ciclo de vida de sistemas de IA para prevenir discriminações ilícitas ou abusivas?

As contribuições responderam ao questionamento da pergunta 4 sobre boas práticas e salvaguardas para a prevenção de discriminações ilícitas ou abusivas, versando sobre monitoramento, auditorias, supervisão humana, flexibilização da LGPD, dentre outros aspectos. A seguir, nota-se áreas de convergência e divergência.

Pontos de convergência

Por sua vez, foram os seguintes os pontos de divergência relativos à Questão 4:

Enfatiza-se a necessidade de seguir rigorosas práticas e salvaguardas ao longo do ciclo de vida de sistemas de IA, com foco em uma estrutura robusta de governança para gestão integrada de riscos, incluindo a avaliação de vieses e análises de impacto quando o tratamento de dados pessoais for de alto risco.

Destaca a importância de definir claramente as finalidades dos sistemas para minimizar vieses, de executar testes contínuos e documentar todo o processo.

Propõe determinar antecipadamente as categorias de dados pessoais aceitáveis e assegurar a efetividade do exercício dos direitos dos titulares desde o desenvolvimento.

Boas Práticas:

1. Definição clara das finalidades dos sistemas para minimizar vieses;

2. Execução de testes contínuos e documentação para transparência e responsabilidade;

3. Monitoramento contínuo e auditorias independentes para garantir a conformidade;

4. Engajamento das partes interessadas e educação contínua das equipes.

Salvaguardas:

Realização de bias assessments and ethical reviews em cenários de alto risco;

Implementação do RIPD;

Desenvolvimento de estratégias de mitigação junto aos times de negócios;

Adaptação das normas para equilibrar inovação, proteção de dados e requisitos de natureza prudencial.

Parâmetros:

1. Assegurar diversidade e qualidade dos dados para resultados representativos;

2. Determinar de forma antecipada as categorias de dados pessoais aceitáveis, conforme o caso de uso;

3. Assegurar efetividade do exercício dos direitos dos titulares desde o desenvolvimento.

Em síntese, as contribuições convergem sobre a necessidade de monitoramento contínuo e auditorias, avaliações de impacto, implantação de supervisão humana, qualidade e diversidade dos dados, formação de equipes multidisciplinares e diversas, e utilização de canais de feedback e mecanismos de correção. Entretanto, há diferentes ponderações a respeito da flexibilização da LGPD, necessidade de requisitos adicionais para combate à discriminação e a forma de adoção de boas práticas e salvaguardas. Houve ainda convergência parcial sobre o tratamento de dados pessoais sensíveis.

BLOCO II - HIPÓTESES LEGAIS

Pergunta 5 - O tratamento de dados pessoais no contexto de sistemas de IA pode ser amparado pela hipótese legal do consentimento? Em quais circunstâncias? Quais as limitações para a utilização dessa hipótese legal nesses contextos e quais salvaguardas devem ser observadas?

A pergunta 5 foi respondida com perspectivas sobre a viabilidade de uso da hipótese legal do consentimento, considerando os meios necessários para sua operacionalização em face da escalabilidade necessária e a garantia de direitos dos titulares como o direito de revogação, bem como salvaguardas necessárias e hipóteses legais alternativas. Na sequência, são descritos pontos de divergência e convergência.

Pontos de convergência

Em alguns casos, dependendo do propósito do sistema de IA, basear-se no consentimento pode levar a conjuntos de dados de treinamento incompletos ou não representativos, o que pode gerar efeitos negativos subsequentes. Essas limitações não apenas sobrecarregam a autonomia do usuário, mas também podem diminuir a eficiência e a eficácia do ecossistema digital. Além disso, pode não ser tecnicamente viável ou ser excessivamente oneroso atender a solicitações de retirada de consentimento ou exclusão de dados por parte dos indivíduos. Isso ocorre porque rastrear os dados de volta aos indivíduos específicos é, não apenas intensivo em recursos e quase impossível no caso de dados de terceiros, mas também representa riscos à privacidade dos indivíduos e pode até comprometer estruturalmente os sistemas de IA, impactando significativamente seu funcionamento.

Pontos divergentes

Assim, as contribuições são convergentes sobre as limitações e desafios do uso da hipótese legal do consentimento e procedimentos operacionais relacionados, dificuldade de revogação, a necessidade de transparência e salvaguardas. Por outro lado, não houve consenso a respeito da viabilidade do consentimento e sua escalabilidade, necessidade de renovação de consentimento, e o tratamento de dados públicos para raspagem de dados.

Pergunta 6 - O tratamento de dados pessoais, no contexto de sistemas de IA, pode ser amparado pela hipótese legal do legítimo interesse? Em quais circuntâncias? Em caso afirmativo, quais salvaguardas devem ser adotadas nessas situações com vistas à proteção de direitos dos titulares, especialmente considerando a vedação de tratamento de dados pessoais sensíveis com base na hipótese legal do legítimo interesse? Em particular, a coleta de dados pessoais para o treinamento de sistemas de IA, especialmente mediante técnicas de raspagem de dados, pode ser fundamentada na hipótese legal do legítimo interesse?

Sobre a hipótese legal do legítimo interesse, as contribuições discutiram tópicos como a aplicabilidade da hipótese legal, teste de balanceamento, transparência, medidas de mitigação e salvaguarda, dados sensíveis e raspagem de dados. Adiante, são mostrados pontos de convergência e divergência.

Pontos de convergência

Anonimização e pseudonimização;

Minimização de dados;

Implementação de medidas de segurança;

Possibilidade de oposição ao tratamento;

Relatórios de Impacto à Proteção de Dados (RIPD).

Pontos de divergência

A concepção da base legal dos legítimos interesses na LGPD, única base legal sem uma finalidade prévia e objetiva quando ausente o consentimento do titular, decorre, dentre outros: do reconhecimento da essencialidade da circulação de dados pessoais; da necessidade de tolerar limitações ao exercício informacional; para atender exigências dos agentes de tratamento do setor privado que tratam dados pessoais em larga escala, garantindo maior flexibilidade para o ecossistema de tratamento de dados pessoais.

De modo geral, as contribuições concordam sobre a aplicabilidade do legítimo interesse, a necessidade de teste de balanceamento e transparência, salvaguarda e medidas de mitigação. Porém, há discordância sobre a abrangência do legítimo interesse, a hierarquia entre as bases legais, a oposição de interesses da sociedade e fins privados, e a necessidade de consentimento. Houve, ainda, convergência parcial sobre o tratamento de dados sensíveis e a raspagem de dados.

BLOCO III - DIREITOS DOS TITULARES

Pergunta 7 - De que maneira os direitos do titular, previstos na LGPD, se aplicam a sistemas de IA?

As contribuições recebidas a partir da pergunta 7 exploram temas inerentes aos direitos do titular, como a aplicabilidade da LGPD, transparência, governança e accountability, exclusão de dados e direitos de acesso, oposição e retificação. A seguir, são evidenciados os pontos de vistas trazidos pelas contribuições, destacando áreas de conflito e consenso.

Pontos de convergência

Sobre as divergências, destacam-se:

Pontos de divergência

Dados utilizados durante o treinamento, mas que não foram catalogados ou filtrados para identificar dados pessoais, pode ser irracional ou tecnicamente inviável para um desenvolvedor atender a solicitações de exclusão, especialmente após os dados terem sido utilizados para o treinamento. Podem existir situações em que as organizações não consigam atender a solicitações de exclusão porque os dados associados estão sujeitos a requisitos de retenção previstos por outras normas legais (lavagem de dinheiro, processos judiciais).

Por seu turno, em sentido contrário, há documentos que defendem a aplicação dos direitos dos titulares como os de retificação e exclusão aplicados em sistemas de IA, propondo a implementação de mecanismos que permitam ajustes nos dados pessoais sem comprometer a integridade do sistema e, ainda, técnicas como a anonimização e minimização de dados. Menciona-se também que os sistemas de IA devem oferecer mecanismos de acesso, oposição e revisão de decisões automatizadas, e que os canais de atendimento devem garantir o pleno exercício desses direitos. Ainda, contribuições argumentam que os direitos de retificação, exclusão e anonimização devem ter implicações diretas na governança de sistemas de IA.

Os direitos dos titulares são aplicáveis, mas podem sofrer restrições e limitações a depender da natureza e do contexto do tratamento de dados pessoais em sistemas de IA. Por exemplo, um modelo de crédito precisa, por regulação, tratar os dados pessoais relevantes para a proteção do crédito.

Por sua vez, há contribuição em sentido contrário, que menciona que s sistemas de IA devem oferecer mecanismos de acesso, oposição e revisão de decisões automatizadas, e que os canais de atendimento devem garantir o pleno exercício desses direitos. Ainda, afirma-se que o direito à oposição ao tratamento torna-se um elemento essencial no uso da IA para atividades como segmentação de anúncios ou análise de crédito.

- Os direitos previstos na LGPD deverão ser aplicados somente a sistemas de IA que utilizem dados pessoais em seus modelos ou resultados.

- A ANPD não deve exigir requisitos excessivamente específicos sobre as formas de exercício dos direitos do titular; pois as melhores formas de comunicação podem variar de acordo com as especificidades de produtos e serviços.

- Os direitos do titular previstos pela LGPD devem ser integralmente aplicados aos sistemas de IA.

- Os direitos dos titulares de dados pessoais aplicam-se ao tratamento realizado por sistemas de inteligência artificial (IA), abrangendo a coleta, geração e resultados (outputs), desde que haja efetivo tratamento de dados pessoais.

Os direitos dos titulares aplicam-se ao tratamento de dados pessoais em bases de dados utilizadas para treinamento, desenvolvimento e aplicação de modelos de IA.

Assim é que as contribuições à pergunta 7 foram largamente abrangentes sobre a relação dos direitos dos titulares e sistemas de IA. Em síntese, houve alinhamento a respeito da aplicabilidade da LGPD, a necessidade de transparência, a atenção ao contexto de IA para exercício dos direitos do titular e governança e accountability. Todavia, há divergência em relação à exclusão de dados, direitos de acesso, oposição, e retificação, o âmbito de aplicação da LGPD em relação a sistemas de IA, a necessidade de legislação específica, e o risco de criação de requisitos excessivos.

Pergunta 8 - Quais as boas práticas e as salvaguardas a serem observadas na disponibilização de canais de atendimento ao titular para exercício dos seus direitos, a exemplo dos direitos de acesso, de oposição e de revisão de decisões automatizadas, no contexto do tratamento de dados pessoais por sistemas de IA? Se possível, descreva as ferramentas utilizadas para implementação de tais canais de atendimento, com os respectivos parâmetros utilizados.

As respostas direcionadas à pergunta 8 se dedicaram a explorar temas a respeito de boas práticas e salvaguardas na disponibilização de canais de atendimento ao titular. Assim, foram discutidos a importância sobre questões como obrigatoriedade, acessibilidade, usabilidade, transparência, boas práticas, salvaguardas, rastreabilidade, formatos e padrões dos canais de atendimento. A seguir, os pontos de convergência e divergência.

Pontos de convergência

Boas práticas para o exercício dos direitos: Estabelecimento de período prévio mínimo para que os titulares sejam comunicados e possam se opor ao tratamento de seus dados para treinamento de sistemas de IA; ● Facilidade no direito de oposição, sem exigir dos titulares qualquer justificativa ou ônus injustificado; ● Granularidade no exercício do direito de oposição, podendo o titular se opor ou vetar o uso de dados de determinada fonte (ex: indiciar a URL de um blog que mantém com relatos de viagens contendo dados pessoais) ou alguma categoria de dado que se opõe ao tratamento para o treinamento de algum sistema de IA; ● Garantir o direito de acesso aos titulares acerca de seus dados pessoais tratados por sistemas de IA, incluindo as anotações e metadados; ● Garantir o direito de informação acerca de tratamento compartilhado e compartilhamento de dados pessoais com terceiros, incluindo se esses terceiros são fontes de dados pessoais sobre o titular para o uso e treinamento de sistemas de IA; e ● Em cumprimento ao dever de transparência, sempre informar ao titular quando ele estiver interagindo com um sistema de IA e informar de forma específica os direitos que ele pode exercer frente a esse sistemas, como por exemplo, direito de revisão de decisão automatizada ou o direito à informação previsto no art. 20 §1º.

Além disso, há contribuições que trazem listagem de medidas de salvaguarda, dentre as quais podem ser citadas a exclusão de informações indesejadas dos dados coletados online; de duplicação: remoção de trechos de texto idênticos; técnicas pós-treinamento; filtragem (As empresas podem manter os direitos dos titulares de dados filtrando os dados pessoais verificados das pessoas para que não apareçam nos resultados do modelo e garantindo que sejam excluídos de futuras execuções de treinamento do modelo); medidas de proteção de privacidade devem ser abordadas de forma holística, abrangendo todas as etapas do tratamento de dados, em vez de serem limitadas a uma única fase. Essa visão holística permite que as empresas abordem os riscos potenciais de privacidade de maneira mais abrangente, ao mesmo tempo em que mantêm a eficácia dos sistemas de IA.

Pontos de divergência:

Embora a LGPD não obrigue a criação de canais específicos para tratamentos realizados por IA, é recomendável que controladores avaliem mecanismos especializados em casos em que a complexidade do tratamento ou o impacto sobre os titulares o justifique. Por exemplo, sistemas de IA utilizados para análise de crédito ou prevenção a fraudes poderiam contar com canais dedicados para esclarecer dúvidas específicas sobre esses tratamentos. Contudo, tais mecanismos devem ser vistos como boas práticas para aprimorar a governança e a transparência, e não como exigências legais.

 

Resumidamente, as contribuições expressaram o mesmo entendimento sobre a importância dos canais de atendimento, acessibilidade e facilidade de uso, transparência como princípio fundamental, necessidade de salvaguardas e boas práticas, registro e rastreabilidade e estabelecimento de prazos de atendimento. No entanto, houve diferentes entendimentos sobre obrigatoriedade de canais específicos para IA, padronização e formato dos canais de atendimento, e necessidade de revisão humana.

Pergunta 9 - Deve haver salvaguardas e limites específicos para o tratamento de dados pessoais sensíveis e para o tratamento de dados pessoais de crianças, adolescentes e idosos durante as etapas do ciclo de vida de sistemas de IA?

partir das contribuições direcionadas à pergunta 9, foi possível receber variados pontos de vistas sobre aspectos referentes ao tratamento de dados pessoais de crianças, adolescentes, e idosos nas diversas etapas do ciclo de vida de sistemas de IA. Assim, foram considerados o princípio do melhor interesse, teste de proporcionalidade, consentimento, classificação de dados de idosos como sensíveis, tratamento de dados sensíveis, transparência, segurança e salvaguardas. Foram notadas similaridades e diferenças de perspectivas, reunidas a seguir.

Pontos de convergência

Pontos de divergência

Algumas contribuições afirmam, ainda, que os limites sobre o tratamento de dados pessoais sensíveis, de crianças e adolescentes e de idosos já estão bem delineados na LGPD (arts. 11, 14 e 55-J, XIX), cabendo ao legislador a tarefa de impor as restrições de tratamento, não à ANPD. Ainda, afirmam que questões relacionadas a eventuais salvaguardas e limites ao tratamento no contexto dos sistemas de IA estão sendo debatidas no âmbito do PL nº 2338/2023, sendo recomendável que se aguarde o avanço da discussão legislativa, a fim de não causar insegurança jurídica.

Há, ainda, uma contribuição que sugere o uso restrito de decisões automatizadas para tais dados, de modo a proibir decisões exclusivamente automatizadas nesses casos, exceto em situações em que haja supervisão humana clara e benefícios comprovados. Ainda, a mesma contribuição afirma que deve ser estruturada classificação de risco para sistemas de IA, sendo que os que realizam o tratamento de dados de grupos vulneráveis sejam classificados como alto risco, devendo tais sistemas serem submetidos a obrigações mais rigorosas, como auditorias, documentação e transparência. Deve-se, ainda, proibir sistemas de IA projetados para manipular o comportamento de crianças de forma exploratória ou prejudicial, incluindo práticas de publicidade subliminares.

Cabe destacar contribuição que sugere o amplo diálogo com agências reguladoras como a ANS, Anvisa, além do Ministério da Saúde, quando do estabelecimento de regulação setorial sobre o tema.

O tema de tratamento de dados pessoais sensíveis de crianças, adolescentes e idosos foi discutido de forma ampla nas contribuições recebidas. O tema tem discurso uniforme sobre a necessidade, a observação do princípio do melhor interesse, medidas de transparência e de segurança, e recomendação de avaliação de risco e impacto. Porém, há abordagens discordantes ao se tratar da necessidade de requisitos distintos para idosos, classificação de dados de idosos como sensíveis, aplicação da resolução 245/2024 do CONANDA, viabilidade do uso de hipótese legal do consentimento, suficiência do teste de proporcionalidade e ocorrência de tratamento de dados pessoais sensíveis. Apesar de haver concordância sobre a necessidade de medidas de salvaguardas, há divergência sobre limitações que excedam aquelas já previstas em legislação.

Por fim, contribuições individuais abordaram outros temas de forma isolada, como a restrição do uso de decisões automatizadas, amplo diálogo com agências reguladoras e a classificação do tratamento de dados pessoais de grupo vulneráveis como de alto risco.

Pergunta 10 - Quais os requisitos a serem observados para a garantia e a aplicação do direito à revisão de decisões automatizadas (art. 20 da LGPD)? O que pode ser considerado como decisão tomada unicamente com base em tratamento automatizado de dados pessoais? Quais interesses poderiam ser afetados?

As respostas à pergunta 10 formam extensa discussão sobre os requisitos para aplicação do direito à revisão de decisões automatizadas. Assim, foram observadas opiniões sobre o direito à revisão e seus requisitos, afetação de interesses, conceito de decisão unicamente automatizada, necessidade de revisão humana, transparência, necessidade de salvaguardas, decisões de alto risco e a oposição da transparência e segredos comerciais. Na sequência, são descritos os pontos de convergência e divergência conforme as contribuições recebidas.

Pontos de convergência

Possibilidade de Revisão Humana: Necessidade de revisão por pessoa qualificada.

Transparência: Transparência no processo decisório.

Explicabilidade: Explicabilidade do algoritmo.

Canais de Comunicação: Canais de comunicação adequados.

Documentação: Documentação dos processos de tomada de decisão automatizada e seus critérios.

Os pontos de divergência identificados, por seu turno, foram os seguintes:

Pontos de divergência

Em síntese, as contribuições mostraram opiniões semelhantes quanto ao direito à revisão e seus respectivos requisitos, a necessidade de salvaguardas, a transparência e o acesso à informação. Por outro lado, as opiniões são discrepantes ao tratar sobre a aplicação de revisão a decisões que não sejam classificadas como de alto risco, a abrangência da afetação de interesses, necessidade de revisão humana, equilíbrio entre transparência e segredos comerciais, e o conceito de decisão unicamente automatizada. Também não há consenso sobre a aplicação do artigo 20 da LGPD sobre as decisões de modelos de IA generativa.

Pergunta 11 - Em que hipóteses e sob quais condições pode ser necessária a revisão humana de decisões automatizadas com vistas à adequada garantia de direitos dos titulares?

No que se refere à necessidade à necessidade de revisões automatizadas, os participantes discutiram temáticas que permeiam o tema, como a sua necessidade e obrigatoriedade, seus efeitos jurídicos, alto risco, e impactos nos direitos do titular, abordando discriminação, vieses, transparência, e o direito à contestação de informação. Também foram debatidos aspectos de efeito operacional como a qualificação de revisores, custos e viabilidade. Adiante, podem ser observados os aspectos que tiveram pontos de vista unânimes e discordantes.

Pontos de convergência

Ainda, cabe destacar a contribuição que sugere que a ANPD não se concentre em algo que não esteja previsto na lei, pois discutir a supervisão humana corre o risco de criar uma expectativa regulatória paralela sem fundamento na LGPD.

Pontos de divergência

Destaca-se a contribuição que afirma que impactos significativos são aquelas com consequências graves, como negação de crédito ou perda de emprego, com indícios de erro ou vieses (erros nos dados ou suspeitas de viés algorítmico), que possa trazer violações a normas legais ou contratuais, em que há falta de transparência (quando o titular não compreende os motivos da decisão) e que geram impactos em direitos fundamentais. Assim, prossegue afirmando que as condições para uma revisão eficaz incluem independência do revisor (deve ser imparcial); acesso à informação (o revisor deve ter acesso a todas as informações relevantes); prazo para revisão (estabelecimento de prazos para a revisão e comunicação dos resultados). Ainda, há que ter-se confidencialidade e mecanismos de recurso para o titular.

É de bom alvitre ressaltar, ainda, a contribuição que afirma ser a revisão humana necessária quando, a decisão impacta significativamente o titular, há suspeita de viés, erro ou discriminação no sistema de IA, o titular solicita formalmente a decisão e é exigida por leis setoriais ou regulamentos específicos.

Sumariamente, há consenso quanto à necessidade de revisão humana para os casos de efeitos jurídicos ou impacto significativo nos direitos do titular. As contribuições também concordaram sobre a qualificação dos revisores e a necessidade de mecanismos de supervisão. Porém, houve discordância na interpretação do artigo 20 da LGPD, havendo diferentes manifestações acerca da IA Generativa, e da obrigatoriedade de revisão humana e sua real necessidade em havendo revisão automatizada eficiente.

Pergunta 12 - Quais os parâmetros a serem observados para o fornecimento de informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão automatizada, nos termos do §1º do art. 20 da LGPD? QUais limites e parâmetros de segredo comercial e industrial que justificam a não observância do fornecimento de informações, conforme disposto no mesmo dispositivo legal?

Os temais centrais tratados pelas contribuições em resposta à pergunta 9 versaram sobre a transparência, acessibilidade e explicabilidade, ponderando o equilíbrio com a preservação de segredos comerciais do controlador. Também houve atenção à necessidade de auditoria, à elaboração de diretrizes por parte da ANPD, às formas de explicação de decisões automatizadas e nível de detalhamento das informações, e ao equilíbrio entre transparência e segurança.

A seguir, os pontos de convergência e divergência:

Pontos de convergência

Clareza e Compreensão: Usar linguagem acessível e evitar termos técnicos complexos.

Objetividade: Informar apenas os critérios relevantes para a decisão.

Proporcionalidade: Fornecer informações proporcionais à necessidade do titular, garantindo que apenas detalhes relevantes e não confidenciais sejam fornecidos.

Finalidade e Base Legal: Indicar a finalidade da decisão automatizada e a base legal que a sustenta.

Acessibilidade: Promover a transparência e a explicabilidade por meio de meios de comunicação acessíveis ao titular.

Documentação: Elaborar um documento explicativo durante o desenvolvimento do sistema de IA, que pode ser fornecido quando necessário.

Restrições Justificadas: O segredo comercial e industrial pode justificar a não divulgação de informações que revelem metodologias de tratamento, dados confidenciais da empresa e informações estratégicas.

Balanceamento: Buscar um equilíbrio entre a transparência e a proteção dos segredos comerciais, garantindo que o titular receba informações úteis sem expor elementos sensíveis.

Compliance com a LGPD: Assegurar que a proteção dos segredos comerciais não impeça a observância dos direitos do usuário, permitindo que ele compreenda os critérios utilizados e conteste resultados.

Pontos de divergência

A análise das ontribuições revela um debate sobre como fornecer informações claras e adequadas sobre decisões automatizadas, equilibrando a transparência com a proteção de segredos comerciais e industriais. Há um consenso sobre a necessidade de informações acessíveis e compreensíveis, mas divergências sobre o nível de detalhamento técnico e a definição do que constitui um segredo comercial. A implementação das diretrizes do art. 20 da LGPD deve considerar o contexto específico de cada caso, buscando um equilíbrio entre a proteção dos direitos dos titulares e a promoção da inovação e do desenvolvimento tecnológico.

BLOCO IV - BOAS PRÁTICAS E GOVERNANÇA

Pergunta 13 - De que forma programas de governança em privacidade podem ser utilizados como um mecanismo de promoção da conformidade do desenvolvimento e uso dos sistemas de IA com a LGPD? Quais requisitos, especificamente relacionados ao desenvolvimento e uso de sistemas de IA, devem ser observados nesses casos?

A pauta das contribuições dirigidas à pergunta 13 discutiram a necessidade de programas de governança em privacidade e o Privacy by Design, incluindo questões de transparência, RIPD e avaliação de impacto, e capacitação de colaboradores. Além disso, também foram discutidos a adoção de padrões internacionais e o nível de detalhe a ser empregado em eventual regulamentação pela ANPD.

Pontos de convergência

Pontos de divergência

Assim, verificou-se a convergência sobre a necessidade de programas de governança e privacidade e adoção do Privacy by Design, a importância da transparência e do RIPD; além de pontos como segurança, monitoramento contínuo e capacitação das equipes envolvidas com o tratamento de dados pessoais. Em contrapartida, houve discordância sobre a obrigatoriedade de algumas práticas, a necessidade de regulamentação e o nível de detalhe e flexibilidade de requisitos a serem estabelecidos. A necessidade de avaliação de impacto e a adoção de padrões internacionais também foram temas de contraste.

Pergunta 14 - Considerando o princípio da responsabilização e prestação de contas, quais informações devem ser documentadas durante o ciclo de vida de um sistema de IA? Em quais contextos específicos relacionados a sistemas de IA é recomendada a elaboração de RIPD? Neste caso, é possível estabelecer requisitos específicos a serem observados na elaboração do RIPD?

Sobre a pergunta 14, foram identificados os seguintes pontos de convergência e divergência:

Pontos de convergência

Pontos de divergência

Nesse último ponto, cabe destacar a contribuição que indica que os critérios para identificar situações de alto risco no tratamento de dados são mais específicos quando comparados aos aplicados a sistemas de IA, e que em contextos sem IA, a análise foca nos impactos à privacidade (por exemplo, EDPB adota uma abordagem mais ampla, considerando decisões automatizadas e impactos significativos sobre direitos e liberdades individuais). Afirma que antes de implementar sistemas de IA, é imprescindível realizar avaliação prévia de riscos, além da publicação de uma versão pública do RIPD e a participação de grupos afetados e especialistas na identificação de impactos, especialmente em atividades de alto risco. Recomenda documentar o propósito e o escopo do sistema de IA, incluindo os critérios e métodos usados no treinamento do modelo, objetivos, casos de uso previstos, limitações técnicas e potenciais impactos sociais e éticos, registrando as fontes de dados, métodos de coleta e base legal para o tratamento. A contribuições afirma também que o RIPD deve identificar riscos como discriminação algorítmica, impactos na privacidade e segurança, e descrever estratégias de mitigação para cada risco identificado. Finalmente, indica que a documentação completa do ciclo de vida do sistema, incluindo entradas, saídas, funcionamento dos algoritmos e justificativas para decisões automatizadas, é indispensável para garantir rastreabilidade e transparência.

Também importa mencionar contribuição que afirma que o RIPD deverá existir sempre quando houver tratamento de dados sensíveis, dados de grupos de vulneráveis, tratamento de alto risco ou quando for utilizada a hipótese legal do legítimo interesse.

Pergunta 15 - Considerando o ciclo de vida de um sistema de IA, em que momento e contexto do tratamento seria viável ou necessária a anonimização? Qual a técnica utilizada? Quais outras medidas de segurança poderiam ser eventualmente utilizadas visando à proteção da privacidade de titulares de dados?

Destacam-se as seguintes temáticas em relação ao questionamento:

Pontos de convergência

Pontos de divergência

Destaca-se a contribuição que afirma que a anonimização, assim como outras opções, como o uso de dados sintéticos e a pseudonimização, deve ser priorizada, mas não deve ser considerada como uma “bala de prata”. Com efeito, ela não reduz o risco a zero de reidentificação e exige monitoramento e avaliação constante para que atenda aos parâmetros mínimos de segurança. Especialmente em sistemas de IA, esse monitoramento constante pode se tornar mais complexo, ou até mesmo impossível. Pelas diferentes lógicas de funcionamento desses sistemas, muitas vezes os desenvolvedores não terão condições técnicas de avaliar com confiança e precisão tudo que ocorre com um dado entre o “input” e o “output” do sistema. A mesma lógica se aplica para os desenvolvedores de sistema. Assim, a partir da lógica da “caixa preta” não se pode ter certeza de que um sistema de IA não interagiu com um banco de dados a ponto de possibilitar a reidentificação de dados antes anonimizados. Nesses termos, sistemas de IA que apresentem riscos aos direitos fundamentais de titulares de dados devem cumprir com as obrigações da LGPD, ainda que se utilizem de dados inicialmente anonimizados para seu treinamento ou operação.

Assim, percebe-se que, nos termos das contribuições, a anonimização é vista como uma prática recomendada e, em alguns casos, essencial para proteger a privacidade dos titulares de dados e garantir a conformidade com a legislação, especialmente a LGPD . No entanto, a anonimização não é isenta de desafios e pode afetar a utilidade dos dados e a capacidade dos modelos de IA.

As contribuições enfatizam que o momento ideal para identificar a necessidade de anonimização é no período de desenvolvimento do sistema de IA. As técnicas de anonimização devem ser proporcionais ao contexto e ao propósito do tratamento dos dados. Além disso, a anonimização deve ser vista como parte de um conjunto de medidas de segurança, incluindo criptografia, controle de acesso e auditorias. A escolha da técnica de anonimização depende da natureza e organização dos dados.

Por sua vez, verificou-se a existência de alguns pontos divergentes, como a recomendação ou não da anonimização para alguns sistemas de IA, a obrigatoridade ou facultatividade de seu uso, o momento ideal para realizar a anonimização (antes do treinamento do modelo ou em diferentes etapas e contextos), e a visão geral sobre a medida, vez que algumas contribuições a consideram como uma medida essencial de segurança, enquanto outras a enxergam como uma das várias medidas de segurança a serem implementadas.

DOCUMENTOS RELACIONADOS

Anexo Contribuição (SEI/ANPD nº0173307); 

Anexo Contribuição (SEI/ANPD nº0173308);

Anexo Contribuição (SEI/ANPD nº0173310);

Anexo Contribuição (SEI/ANPD nº0173311);

Anexo Contribuição (SEI/ANPD nº0173312);

Anexo Contribuição (SEI/ANPD nº0173313);

Anexo Contribuição (SEI/ANPD nº0173315);

Anexo Contribuição (SEI/ANPD nº0173314);

Anexo Contribuição (SEI/ANPD nº0173316);

Anexo Contribuição (SEI/ANPD nº0173317);

Anexo Contribuição (SEI/ANPD nº0173318);

Anexo Contribuição (SEI/ANPD nº0173319);

Anexo Contribuição (SEI/ANPD nº0173320);

Anexo Contribuição (SEI/ANPD nº0173321);

Anexo Contribuição (SEI/ANPD nº0173322);

Anexo Contribuição (SEI/ANPD nº0173323);

Anexo Contribuição (SEI/ANPD nº0173324);

Anexo Contribuição (SEI/ANPD nº0173325);

Anexo Contribuição (SEI/ANPD nº0173326);

Anexo Contribuição (SEI/ANPD nº0173327);

Anexo Contribuição (SEI/ANPD nº0173328);

Anexo Contribuição (SEI/ANPD nº0173329);

Anexo Contribuição (SEI/ANPD nº0173330);

Anexo Contribuição (SEI/ANPD nº0173331);

Anexo contribuições OPINEAQUI (SEI/ANPD nº 0173510);

Consolidação Questões 1 a 15 (SEI/ANPD nº 0178837).

CONCLUSÃO

Tendo em vista todos os pontos aqui destacados, sugere-se que a presente Nota Técnica conste como insumo para os trabalhos e atividades a serem realizados no âmbito do Projeto - Item 7 da Agenda Regulatória para o biênio 2025-2026 da ANPD e, ainda, sirva para o robustecimento da instrução processual referente ao citado projeto regulatório.

Nesses termos, sugere-se, ainda, encaminhar a presente Nota, junto com seus anexos, à Secretaria-Geral do Conselho Diretor, para conhecimento dos membros deste Colegiado.

 

À consideração superior.

Brasília-DF, 3 de abril de 2025.

GABRIELA NATACHA BECHARA
Servidora Pública em exercício na CGN

FÁBIO SILVEIRA VIDAL
Servidor Público em exercício na CGN

MARIANA TALOUKI
Coordenadora de Normatização

De acordo. Encaminha-se.

Brasília-DF, 3 de abril de 2025.

RODRIGO SANTANA DOS SANTOS
Coordenador-Geral de Normatização


logotipo

Documento assinado eletronicamente por Mariana Almeida de Sousa Talouki, Coordenador(a), em 03/04/2025, às 15:22, conforme horário oficial de Brasília, com fundamento no art. 6º, § 1º, do Decreto nº 8.539, de 8 de outubro de 2015.


logotipo

Documento assinado eletronicamente por Gabriela Natacha Bechara, Professor do Magistério Superior, em 03/04/2025, às 15:24, conforme horário oficial de Brasília, com fundamento no art. 6º, § 1º, do Decreto nº 8.539, de 8 de outubro de 2015.


logotipo

Documento assinado eletronicamente por Fábio Silveira Vidal, Servidor(a) Requisitado(a)-ANPD, em 03/04/2025, às 15:24, conforme horário oficial de Brasília, com fundamento no art. 6º, § 1º, do Decreto nº 8.539, de 8 de outubro de 2015.


logotipo

Documento assinado eletronicamente por Rodrigo Santana dos Santos, Coordenador(a)-Geral de Normatização, em 03/04/2025, às 15:27, conforme horário oficial de Brasília, com fundamento no art. 6º, § 1º, do Decreto nº 8.539, de 8 de outubro de 2015.


QRCode Assinatura

A autenticidade deste documento pode ser conferida no site https://anpd-super.mj.gov.br/sei/controlador_externo.php?acao=documento_conferir&id_orgao_acesso_externo=0, informando o código verificador 0173345 e o código CRC 18F035F4.



 

SCN Quadra 06, Conjunto A, Ed. Venâncio 3000, Bloco A, 9º andar, - Bairro Asa Norte, Brasília/DF, CEP 70716-900
Telefone: - https://www.gov.br/anpd/pt-br


Referência: Caso responda a este documento, indicar expressamente o Processo nº 00261.006920/2024-46 SEI nº 0173345