☕Uso ético da IA na educação é possível?
# 49: Especialistas debatem caminhos para usos éticos da inteligência artificial entre a teoria e a prática
Recursos de inteligência artificial (IA) têm sido experimentados de forma crescente por professores em sala de aula. A variedade de funções e as possibilidades de aplicação trazem dúvidas e suscitam que educadores e estudantes estejam abertos ao debate ético sobre o tema. Recursos baseados em IA estão redefinindo o modo como o conhecimento pode ser produzido, acessado e assimilado, em especial as chamadas IAs generativas – que produzem novos conteúdos a partir de comandos textuais. Se, por um lado, a IA pode ser uma aliada valiosa no preparo das atividades em sala de aula, por outro, pode facilitar e atrofiar etapas cognitivas importantes dos processos de leitura, escrita, criatividade e autoria.
Na visão de especialistas, o uso ético da IA na educação passa, necessariamente, por dois pontos. O primeiro é ligado a ações que contribuam para uma melhoria da qualidade de vida e da formação crítica; o segundo está ligado à garantia de direitos e de um processo formativo sem interferências diretas e potencialmente problemáticas de tecnologias.
Por isso, a ética aparece como fator determinante, ajudando a refletir sobre modelos pedagógicos eventualmente defasados para que incorporem, de forma crítica, metodologias e competências inovadoras.
"Precisamos preparar os alunos para usarem as diversas inteligências artificiais generativas disponíveis – que vão de pacote para imagem, texto, vídeo, aplicações financeiras, estudos para vestibular, SAC –, sempre com foco na melhoria da vida do ser humano. Que possamos estimular investimentos e cursos que capacitem o estudante para operar o prompt a seu favor e não o contrário", defende Pollyana Ferrari, professora do curso de Comunicação e Educação e do programa de pós-graduação Tecnologias da Inteligência e Design Digital (TIDD) da PUC-SP.
O segundo aspecto indicado por especialistas passa pela garantia do direito de crianças e adolescentes à educação sem riscos e consequências negativas, mesmo que isso custe uma aprendizagem mais personalizada. No cotidiano, tal perspectiva envolveria a limitação das práticas baseadas em dados, como análise de aprendizagem, aprendizagem personalizada, iniciativas disciplinares quantificadas, sistemas de proteção baseados em vigilância, supervisão e controle de chamada via reconhecimento facial.
“Isso significa evitar que qualquer ferramenta digital adotada nas atividades de ensino afetem o bem-estar, a autonomia e a tomada de decisão desse grupo", explica George Valença, pesquisador e professor associado do Departamento de Computação da Universidade Federal Rural de Pernambuco (UFRPE) e especialista em IA, proteção de crianças no ambiente digital e garantia dos direitos da criança por design.
Se todo mundo está usando, é preciso falar sobre
Autora de mais de dez livros sobre comunicação digital e pesquisadora sobre educação midiática no combate à desinformação, Ferrari afirma que o uso das IAs na educação já é uma realidade e que é preciso entender como lidar com esse momento de intensa experimentação, não apenas no campo da educação, mas em outras atividades da vida cotidiana.
"Todo mundo está usando. Vejo e ouço comentários de toda ordem: uso de IA como terapeuta; uso de IA para colar em prova; uso de IA para ajudar na pesquisa de referências históricas. Acho que precisamos conversar abertamente – educadores e alunos – sobre esta nova era, que tenho chamado de "Era do Prompt", mostrando para os estudantes que o caminho mais rápido não gera melhores resultados", argumenta.
Desconhecimento sobre IA ainda é realidade
Ainda que “diálogo” seja palavra constante quando o tema é ética e IA na educação, a realidade brasileira parece ser um desafio em si. Isso porque, em muitos contextos, falar em inteligência artificial ainda é uma barreira e assunto inexistente, sobretudo no cenário da educação pública.
"Hoje eu vou dar palestras, na maioria, em escolas com casos de violência na zona Sul de São Paulo, onde falo sobre racismo, cyberbullying e uso consciente de ferramentas tecnológicas. Em uma escola de Ensino Fundamental II, dei palestra para alunos do 6° ao 9° ano e, aproximadamente, 15 professores estavam presentes. Nessa palestra, utilizei com os alunos uma ferramenta de IA que nenhum dos professores conhecia. Uns quiserem aprender, outros simplesmente disseram não saber mexer com essas ‘coisas’. Na minha cabeça, a IA já fazia parte da realidade dos docentes, mas os professores dessa escola não sabiam o que era ChatGPT, por exemplo", conta Ana Rodrigues, mestranda no TIDD, da PUC-SP, e coordenadora do Coletivo PRETIDD.
De redação à verificação de conteúdo: usos éticos possíveis
Ainda assim, é possível encontrar experimentações éticas da IA na educação. É o caso apresentado por Ana Paula de Barros. Professora de Língua Portuguesa do Colégio Santo Inácio, no Rio de Janeiro, ela tem usado ferramentas de IA nas aulas de redação – uma das atividades em que muitos educadores ainda questionam o uso desse tipo de tecnologia, por receio de casos de plágio.
"Creio que quanto a isso, o que se pode fazer, e é justamente o que tenho buscado, é mostrar aos estudantes que a IA pode ser fonte de consulta e busca de informações, de um ‘pré-texto’ informativo, organizado, sobretudo quando fazemos as perguntas certas e bem direcionadas", explica a professora.
"A partir desses textos – ou pré-textos – produzidos pela IA, um observador crítico vai ler e preparar o seu trabalho – artigo, redação argumentativa, editorial, enfim, o gênero que quiser, que o professor selecionar– com autoria, com qualidade, usando as informações a favor da construção da sua própria argumentação. Esse é um ‘uso’ interessante e produtivo da IA nas aulas de Redação para o ensino médio, por exemplo", defende.
Também há exemplos éticos no ensino superior, como no caso do curso de Jornalismo da PUC-SP. "Tenho acompanhado usos éticos interessantes de IA para fazer cortes em vídeos de entrevistas ou mesmo para decupar tanto áudio como vídeo com a ferramenta Google Pinpoint, por exemplo", revela Pollyana Ferrari, uma das docentes da graduação.
Ela conta que, na última semana, reuniu alunos para conhecerem uma ferramenta de IA da Adobe, com foco em checagem de autenticidade e verificação de conteúdo digital. “Também mostramos como usar a ferramenta de IA Adobe Firefly e como a checagem e as informações sobre a manipulação de imagens é fundamental para combater, por exemplo, deepfakes", diz a professora, que recorre ao ChatGPT para exercícios em sala de aula, mostrando que o prompt precisa ser checado. "Não podemos acreditar na primeira resposta que ele 'alucina'."
Dois lados da mesma moeda
Por outro lado, se estudantes têm adotado ferramentas como Copilot, Gemini e o próprio ChatGPT para fins de produtividade, realização de consultas e derivação de resultados mais completos para seus trabalhos. "Os mesmos grandes modelos de linguagem têm sido utilizados para gerar deepfakes pornográficas de colegas, aumentando o já desafiador universo de conteúdos ligados a abuso sexual infantil online", lembra George Valença.
Outro uso arriscado no que diz respeito à ética tem a ver com os vieses discriminatórios presentes na base de dados de algumas IAs generativas. "Como o modelo é treinado com uma grande quantidade de dados de texto coletados da internet nestes últimos 25 anos, elas podem ser influenciadas por preconceitos e estereótipos. Não se trata de barrar a tecnologia, pois nem tem como, mas de acelerar a discussão sobre ética e regulação da IA" diz a pesquisadora, em um trecho de seu novo livro, A Era do Prompt (Editora Fi, 2024).
Em sua visão, as big techs, que respondem pela maior parte do desenvolvimento de tais ferramentas, visam ao lucro, fazendo com que o uso ético dessas tecnologias "dependa fortemente da formação crítica dos nossos alunos para poderem, quando estiverem no mercado de trabalho, saber cobrar regulações e aplicabilidades dos usos de forma ética".
Ética e consciência além da sala de aula
Recentemente, um menino de 14 anos se suicidou depois de ter se envolvido emocionalmente com uma personagem criada pela Character.AI. Segundo especialistas, o fato é indicativo de que práticas de letramento digital devem acontecer também no contexto familiar, sendo responsabilidade dos pais e responsáveis, e não apenas dos educadores. "Para além de controle pelo Estado, é preciso mais conscientização das famílias e profissionais de ensino sobre riscos no ambiente digital", afirma George.
“É muito preocupante ver crianças e adolescentes namorando uma Replika (aplicativo de chatbot de IA generativa, que tem sido utilizado por adolescentes como espécie de 'amigo virtual'). Sou a favor do banimento dos celulares em escolas, mas ainda falta uma conscientização dos pais, principalmente daqueles que já nasceram na era da web", lembra Pollyana.
"Não adianta passar quatro horas por dia na escola sem celular e depois 11 horas no TikTok e jantando sozinho no quarto conversando com a Alexa. A família e a sociedade – aí incluo os educadores – precisam retomar hábitos de fazer refeições juntos, conversar, sem celular, [fazer] atividades ao ar livre e controle parental das telas. Se nada for feito, o crescimento de IAs generativas para funções como namorados(as) ou amigos(as) tende a piorar problemas psicológicos como burnout, ansiedade, depressão entre jovens, pois a IA não ajuda a enfrentar problemas, mas cria mais isolamento e bolhas", completa.
Para promover este processo há, por exemplo, guias como o Internet com Responsa, criado pelo NIC.BR e estudos como os produzidos por pesquisadores do Departamento de Computação da UFRPE, para listar requisitos necessários para ferramentas de controle e mediação parental em redes sociais, jogos e outros aplicativos que fazem parte da rotina de crianças.
Manual Ético da IA na Educação. Esta edição especial da Revista Digital de Tecnologias Cognitivas (TECCOGS) traz um Manual Ético para uso da Inteligência Artificial Generativa. A produção é do Programa de Pós-Graduação em Tecnologias da Inteligência e Design Digital (TIDD) da PUC-SP. Com coordenação da professora Lucia Santaella, o volume traz discussões que vão da relação entre IA e direitos fundamentais, passando pelas implicações da IA na educação até o uso ético de IAs generativas no Ensino Superior.
Unesco reúne materiais de referência sobre uso ético da IA. Um deles é o relatório Recomendação sobre a Ética da Inteligência Artificial, publicado em 2023, com tópico sobre ética e sobre usos da IA na educação.
Unicamp lança sua própria IA. Desenvolvida pela universidade, a ferramenta irá auxiliar em tarefas administrativas de natureza mais burocrática e repetitiva, como produção de textos, tradução, análise de dados e criação de normas. O objetivo é permitir à comunidade universitária não somente ganhar experiência como também desenvolver um maior senso crítico acerca do uso ético e responsável desse tipo de recurso, ao tomar conhecimento de suas vantagens e de seus defeitos.
Nota: Este conteúdo foi produzido pela Lupa com o apoio da Pearson, empresa de aprendizagem com clientes em quase 200 países. Para saber mais sobre a parceria, clique aqui.