Direito à privacidade: as crianças estão aprendendo sob vigilância

Direito à privacidade: as crianças estão aprendendo sob vigilância

Protegendo o direito das crianças à privacidade em uma era de IA

Quando a COVID-19 forçou o encerramento das escolas em 2020, educadores e pais apressaram-se a adotar plataformas digitais/EdTech para manter os alunos a aprender a partir de casa. Nos anos que se seguiram, investigadores e defensores da privacidade descobriram a realidade preocupante de que muitas empresas de tecnologia educativa têm recolhido muito mais dados dos alunos do que o necessário, rastreando o comportamento das crianças, construindo perfis detalhados e, em alguns casos, vendendo informações a terceiros. O que começou como uma resposta de emergência evoluiu para uma infra-estrutura de vigilância que viola os direitos humanos, integrada na experiência educativa quotidiana de uma geração inteira.

A rápida integração da IA ​​nos ambientes de sala de aula alterou fundamentalmente a forma como a educação funciona. Os sistemas escolares encaram cada vez mais a IA como uma preparação essencial para o futuro dos alunos, canalizando recursos públicos significativos para estas tecnologias. Os governos e os intervenientes privados consideram cada vez mais a IA como essencial para preparar os estudantes para um “futuro da IA”, redirecionando frequentemente o financiamento público para iniciativas de IA. No entanto, como documentaram organizações de direitos humanos e investigadores independentes, a rápida implantação da IA ​​na educação tem ocorrido frequentemente sem salvaguardas adequadas, expondo as crianças e os alunos marginalizados a graves violações de direitos.

É importante reconhecer as oportunidades que a IA oferece para promover o direito à educação e à inclusão. A IA pode apoiar o direito à educação, reconhecido no direito internacional e consagrado em instrumentos como a Convenção das Nações Unidas sobre os Direitos da Criança. Quando concebidos cuidadosamente, os sistemas de IA podem adaptar o ensino para satisfazer as necessidades de diversos alunos, ajudar os alunos com deficiência a aceder a conteúdos adaptáveis ​​e ajudar os professores a identificar precocemente lacunas de aprendizagem. Por exemplo, a IA centrada no aluno pode fornecer apoio direcionado aos alunos que lutam com conceitos específicos, ajudando a reduzir as taxas de abandono e promovendo a inclusão. Os professores podem aproveitar as ferramentas de IA para reduzir a carga administrativa, liberando mais tempo para uma interação significativa com os alunos. Estudos e quadros políticos, incluindo documentos de trabalho da OCDE, destacam que a IA pode contribuir para a equidade e a inclusão quando a sua implantação é acompanhada por políticas ponderadas que abordam o acesso, o preconceito e a transparência.

No entanto, este potencial substancial da IA ​​na educação deve ser visto no contexto mais amplo de três implicações críticas para os direitos humanos:

  1. A erosão do direito das crianças à privacidade através da vigilância sistemática.
  2. A exploração comercial de dados de estudantes.
  3. A falta de transparência e responsabilidade na forma como estes sistemas EdTech operam.

Neste artigo…

Privacidade, vigilância e exploração de dados

À medida que as salas de aula se digitalizam, a promessa da EdTech vai ao encontro da crescente preocupação com um subproduto não intencional: a vigilância dos alunos. Uma das áreas de dano mais bem documentadas é o direito das crianças à privacidade. Uma investigação histórica de 2022 da Human Rights Watch (HRW) descobriu que governos de 49 países endossaram ou exigiram produtos EdTech que vigiassem sistematicamente as crianças durante a aprendizagem online. A HRW descobriu que 89% (146 de 164) das ferramentas de aprendizagem online recomendadas pelo governo envolviam-se em práticas de dados que colocavam em risco ou violavam os direitos das crianças. Em contraste, a HRW também identificou uma dúzia de sites Ed Tech de vários países, como França, Alemanha, Japão e Argentina, que funcionavam com tecnologia de rastreamento zero. Esses casos confirmam que as plataformas educacionais podem prosperar sem comprometer a privacidade do usuário. O fator determinante é simplesmente se as organizações optam por priorizá-lo. A investigação da HRW concluiu que os governos falharam no seu dever de proteger o direito das crianças à privacidade, à educação e à liberdade de pensamento durante a implantação da plataforma pandémica. Este fracasso ocorreu apesar da maior vulnerabilidade das crianças durante uma crise global e da sua crescente dependência de ferramentas digitais para a aprendizagem.

As soluções EdTech que monitoram os alunos rastreiam atividades fora do horário escolar e transferem dados para empresas de publicidade sem consentimento ou abertura genuínos. Estes produtos monitorizam ou têm a capacidade de monitorizar crianças, na maioria dos casos secretamente e sem o consentimento das crianças ou dos seus pais, em muitos casos recolhendo dados pessoais como quem são, onde estão, o que fazem na sala de aula, quem são os seus familiares e amigos, e que tipo de dispositivo as suas famílias poderiam pagar para usarem.

A corrida em direcção a soluções tecnológicas ultrapassou as considerações relativas aos direitos, criando infra-estruturas de vigilância que persistem até hoje. Do ponto de vista dos direitos, estas práticas violam múltiplas proteções inter-relacionadas. Minam os direitos fundamentais à privacidade, contradizem o princípio de que os melhores interesses das crianças devem orientar todas as decisões que as afectam e comprometem o direito à educação livre de exploração. A vigilância generalizada durante os anos de formação normaliza a monitorização constante, moldando potencialmente a forma como os jovens compreendem a privacidade, a autonomia e a sua relação com a autoridade de formas que se estendem muito para além dos muros da escola.

Exploração de dados de alunos por atores comerciais

Em 2022, investigadores do Internet Safety Labs descobriram que até 96% das aplicações utilizadas nas escolas dos EUA partilham informações dos alunos com terceiros, e 78% delas partilham estes dados com anunciantes e corretores de dados. Dado que as crianças constituem um grupo vulnerável, os seus dados, incluindo cada vez mais dados biométricos, devem ser tratados com o mais elevado nível de proteção. O direito internacional dos direitos humanos atribui aos governos a responsabilidade primária de proteger os direitos das crianças, mesmo quando as tecnologias são desenvolvidas e operadas por empresas privadas. No entanto, muitos produtos EdTech incorporam tecnologias que monitorizam o comportamento online das crianças em vários contextos, recolhendo informações detalhadas sobre quem são, onde estão e como aprendem, ao mesmo tempo que partilham rotineiramente estes dados com terceiros no ecossistema da tecnologia publicitária, muitas vezes sem consentimento claro ou conhecimento dos pais. Esta prática mina o direito das crianças à privacidade, ao acesso à informação e à liberdade de pensamento, transformando os ambientes educativos em espaços de extração de dados comerciais.

Os rastreadores de anúncios incorporados em plataformas educacionais transmitem dados de alunos para uma rede de entidades terceirizadas, incluindo plataformas de marketing, empresas de análise e corretores de dados que compilam essas informações em perfis comportamentais detalhados usados ​​para direcionamento comercial. As actividades de aprendizagem das crianças geram assim fluxos de dados mercantilizados que alimentam ecossistemas publicitários muito distantes dos objectivos educativos. Um exemplo notável surgiu no Brasil, onde a plataforma pública de aprendizagem on-line Estude em Casa em Minas Gerais expôs esta interseção preocupante entre educação e vigilância comercial. A HRW documentou que o site, usado por crianças em todo o estado, estava transmitindo dados de atividades dos alunos para uma empresa de publicidade terceirizada por meio de vários rastreadores de anúncios, cookies de terceiros e “públicos de remarketing” do Google Analytics. Isto significava que os comportamentos de aprendizagem das crianças alimentavam diretamente os ecossistemas de publicidade comercial, muito além dos objetivos educativos pretendidos. Depois que a Human Rights Watch destacou publicamente essas violações de privacidade em relatórios publicados no final de 2022 e início de 2023, a secretaria de educação de Minas Gerais removeu todo o rastreamento de anúncios da plataforma em março de 2023, ressaltando a necessidade urgente de salvaguardas mais fortes para proteger o direito das crianças à privacidade digital.

Falta de transparência e responsabilidade

A IA foi muito além de ser complementar na educação e agora opera em todos os níveis dos sistemas escolares. Os proponentes justificam esta expansão através de apelos à eficiência, segurança e aprendizagem individualizada. As preocupações em matéria de direitos humanos surgem quando estes sistemas se tornam obrigatórios, funcionam sem transparência, exigem uma recolha extensiva de dados e demonstram um desempenho pouco fiável, especialmente quando aplicados a jovens que não conseguem consentir de forma significativa na sua utilização.

Uma ação de fiscalização de alto nível nos Estados Unidos, em dezembro de 2025, ilustra quão profundamente a falta de transparência e responsabilização por parte das empresas EdTech pode violar os direitos das crianças. Depois que um ataque cibernético em 2021 expôs as informações pessoais de mais de 10 milhões de estudantes, incluindo notas, detalhes de saúde e outros registros confidenciais, os reguladores federais e estaduais finalmente tomaram medidas contra o provedor de tecnologia educacional “Illuminate Education”. A Comissão Federal de Comércio e os procuradores-gerais da Califórnia, Connecticut e Nova Iorque descobriram que a empresa enganou os distritos escolares sobre as suas salvaguardas de segurança cibernética, não conseguiu corrigir vulnerabilidades conhecidas e atrasou a notificação das escolas e famílias sobre a violação. O acordo resultante exige medidas de segurança mais rigorosas e a eliminação de dados desnecessários, e impõe sanções de 5,1 milhões de dólares. No entanto, o acordo ofereceu poucas soluções significativas para os estudantes e famílias afectados, mostrando como as acções de aplicação da lei muitas vezes só chegam depois de o dano ter ocorrido e como os actores comerciais são autorizados a acumular vastos tesouros de dados dos estudantes, ao mesmo tempo que externalizam as consequências do insucesso para as crianças, os pais e as instituições públicas.

Avançando: Construindo Sistemas EdTech Baseados em Direitos e Alimentados por IA

Em 2026, à medida que a integração da IA ​​na educação continua a acelerar, a necessidade de quadros de governação abrangentes que defendam os direitos humanos nunca foi tão urgente. A IA na educação não precisa de ser incompatível com os princípios dos direitos humanos, mas as práticas atuais comprovadamente o são.

O alinhamento da implantação da IA ​​na educação com os padrões de direitos humanos exige reformas fundamentais tanto nos governos como no sector privado. As organizações internacionais estão ativamente a definir orientações para a utilização responsável da IA. Como parte do projecto IA para Crianças da UNICEF, a sua Orientação sobre IA e Crianças de 2025 estabelece dez requisitos para a “IA centrada na criança”, incluindo supervisão regulamentar, privacidade de dados, não discriminação, segurança, transparência, responsabilização e inclusão. Estes princípios visam garantir que os sistemas de IA defendem os direitos das crianças e que a tecnologia deve ser concebida e governada para proteger e beneficiar os alunos. Estas salvaguardas são essenciais para cumprir as obrigações dos Estados e do sector privado ao abrigo da legislação internacional sobre os direitos da criança e a legislação educativa.

Uma abordagem baseada nos direitos exige uma reorientação de prioridades. Em vez de experimentar casualmente com crianças, implementando tecnologias não comprovadas nas suas salas de aula, devemos perguntar o que as crianças precisam e que proteções os seus direitos exigem. A inovação deve ser avaliada não pela sofisticação técnica ou promessas de eficiência, mas pela capacidade demonstrada para melhorar a qualidade educativa, respeitando simultaneamente os direitos e a dignidade das crianças. Sem esta mudança, a IA corre o risco de se tornar não um instrumento de capacitação educacional, mas um mecanismo cujos danos recairão mais pesadamente sobre as crianças já mais vulneráveis ​​e marginalizadas nos sistemas educativos. Para aqueles de nós que acreditam que os direitos das crianças são fundamentais, devemos desafiar corajosamente as reivindicações do “potencial” da IA ​​e devemos exigir provas concretas e regulamentação robusta e baseada em direitos para moldar a forma como estes sistemas são desenvolvidos (garantindo que sejam éticos, eficazes e respeitadores dos direitos das crianças) e para abordar os riscos que já conhecemos, juntamente com aqueles que ainda emergem.

Leitura adicional:



Fonte ==>

Leia Também

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *