Debates do Summit Explore IA mostram como infraestrutura, equidade, regulação e psicologia do usuário moldam o futuro da IA na educação no Brasil
A discussão sobre IA (inteligência artificial) na educação tem avançado no Brasil em ritmo acelerado, mas ainda marcada por contrastes profundos entre promessa tecnológica e realidade de sala de aula. No Summit Explore IA na Educação, realizado no Insper, no último dia 18 de novembro, pesquisadores, gestores públicos, líderes de tecnologia e especialistas em psicologia analisaram o impacto da IA sob diferentes dimensões — ética, infraestrutura, aprendizagem, cognição humana e política.
A pauta de fundo foi clara: antes de imaginar escolas automatizadas ou currículos personalizados em larga escala, é preciso encarar desafios estruturais que vão do acesso desigual a equipamentos à necessidade de formar professores e estudantes para compreender limites, vieses e implicações do uso da tecnologia. A IA não é apenas ferramenta; é um fenômeno cultural, social e cognitivo.
- Summit Explore revela impactos da IA na educação
- Formação docente em IA exige novos letramentos
- Debate sobre IA aponta riscos e avanços na educação
Ao longo dos debates, emergiu a percepção de que adotar IA depende menos de modismos e mais de políticas consistentes de governança. Isso significa enfrentar desigualdades históricas, construir ecossistemas de dados responsáveis, garantir transparência e cultivar soberania cognitiva — a capacidade de manter pensamento crítico diante de sistemas que imitam a linguagem humana.
Esse olhar integral guiou o Summit: discutir IA na educação não como tendência tecnológica, mas como tema estrutural que impacta equidade, currículo, regulação e a própria experiência subjetiva de aprender.
Infraestrutura, equidade e ética: o debate que antecede a inovação
Uma das provocações centrais do evento veio do painel sobre ética e equidade. Se a IA promete personalização e escala, sua implementação na educação pública esbarra em obstáculos básicos: conectividade, equipamentos, ambiente adequado e investimentos estruturais. Discutir IA em larga escala, nesse contexto, soa desconexo quando milhares de escolas não têm ar-condicionado, internet ou até banheiro.

Kelly Batista, da Fundação 1bi

Rafael Cunha, do Descomplica
Para Kelly Batista, coordenadora-geral da Fundação 1bi, a “inovação disruptiva” na educação pública começa garantindo condições materiais. “A gente precisa voltar duas casas, entrar na sala de aula e ver a real educação que acontece. Hoje a plataforma olha muito pros professores para que essas pessoas possam ter mais interações humanas.”
Rafael Cunha, CLO do Descomplica, também foi direto ao ponto: “O maior desafio hoje não é o software, é o hardware, num país onde muitas escolas ainda não têm condições mínimas para operar tecnologias básicas”.
A discussão reforçou que ética em IA não é um manual de conduta, mas um trabalho contínuo de governança que envolve toda a comunidade escolar. Como sintetizou Paola Scortegagna, da UEPG/Secretaria PR: “Sem consciência crítica, corremos o risco de usar IA para produzir qualquer coisa sem pensar nas implicações”.

Paola Scortegagna, da UEPG/Secretaria PR

Analu Orleans, da Khan Academy
Outro alerta importante veio de Analu Orleans, da Khan Academy, ao lembrar que a IA precisa ser pensada para a escola média — aquela em que a internet cai, o dispositivo é compartilhado e a aula depende de inventividade, não de abundância tecnológica. Nesse sentido, a equidade digital torna-se pré-requisito para qualquer avanço mais sofisticado.
“Desenhar IA para a escola média, não só pra escola ideal, é pensar num IA que não exige um dispositivo ultra avançado, e que a internet tem grande chance de cair no meio da aula”, argumentou Analu.
Regulação e governança: proteger sem paralisar
Os especialistas em regulação destacaram que o Brasil precisa avançar rapidamente em diretrizes que conciliem inovação com proteção de dados, transparência e soberania cultural. O domínio dos grandes modelos internacionais coloca o país diante de um desafio geopolítico: consumir dados e narrativas estrangeiras sem construir alternativas locais.
“Quem produz ciência de IA não são as universidades, mas são os grandes centros dessas grandes corporações. A gente tem que consumir esses modelos americanos e chineses. A regulamentação acaba sendo um instrumento cabível para que a gente consiga de fato ter um equilíbrio”, argumentou Rodolfo Avelino, hacker ativista e professor do Insper com expertise em liderança de projetos de Segurança da Informação.
Adriele Marquezini, presidente Comitê Futuro do Trabalho e Educação (Abria), lembrou que “dados traduzem cultura” — e consumir exclusivamente modelos de fora significa importar visões de mundo que não refletem a diversidade brasileira. “A IA é treinada com dados, e os dados traduzem cultura. Então se a gente não entender que a gente ao consumir está consumindo outras culturas, a gente não vai conseguir atingir essa soberania”, disparou a jornalista.

Debate sobre regulação acendeu alerta sobre segurança e governança digital
A governança escolar também exige atenção: antes de adotar qualquer ferramenta, é necessário garantir protocolos de privacidade, rotinas de atualização, marca d’água para conteúdos sintéticos e mecanismos de transparência sobre onde e como a IA está sendo usada.
“O algoritmo decide o que você vai ver, decide as músicas que você vai escutar, tem uma capacidade muito grande de moldar a nossa percepção do mundo.” explicou Marco Lauria, fundador e membro do Conselho da I2AI. Por isso, nas escolas, a proteção da privacidade do aluno (Zero Trust) deve ser a prioridade número um antes de adotar qualquer ferramenta “mágica”.
A educação aparece, portanto, como primeira camada de regulação: formar estudantes capazes de identificar vieses, erros e ilusões algorítmicas é tão importante quanto escrever leis. “Eles [na China] focam em quatro aspectos, e o primeiro é que eles educam as crianças desde pequenas para mostrar que a inteligência artificial alucina, para a criança já não sair acreditando em tudo”, disse Fernando Gabas, CEO e fundador Academia Soul.

Painel Missão Ásia
O que o Brasil pode aprender com China e Coreia do Sul
O último bloco do Summit articulou essas discussões ao retorno da Missão Explore Ásia 2025, que visitou ecossistemas de IA na China e na Coreia do Sul. Os relatos enfatizaram a combinação de políticas de longo prazo, letramento tecnológico desde a educação infantil e infraestrutura massificada.
“A gente vai para lá achando que vai ver uma tecnologia disruptiva e você percebe que é muito mais uma mentalidade de consistência de longo prazo, de não colocar só o interesse comercial acima de tudo”, disse Marcel Nobre, professor, palestrante e fundador da BetaLab.
Na China, por exemplo, crianças são ensinadas desde cedo que a IA alucina — preparação cognitiva que reduz vulnerabilidade à automação acrítica. “Eles usam uma expressão que eu achei sensacional: ‘AI for Good’ (IA para o bem). Utilizar a inteligência artificial para um bem comum, esse senso de coletividade”, compartilhou Fernando Gabas, CEO e fundador Academia Soul.

Fernando Gabas, da Academia Soul

Marcel Nobre, da BetaLab
Já na Coreia, a integração entre governo, escolas e indústria forma um ecossistema robusto de inovação, no qual infraestrutura, formação docente e pesquisa caminham em conjunto. Houve, no entanto, um momento de desconforto e reflexão ao visitar os Hagwons (cursinhos intensivos) na Coreia do Sul, que funcionam como internatos de alta performance.
“Isso me mexeu profundamente, os Hagwons coreanos, uma estrutura física onde os jovens que não passam nas universidades fazem cursinho, é um internato”, explicou Lígia Costa, especialista em Bem-Estar e Liderança Humanizada. “Eles ficam quatro semanas internados e dois dias podem ir para casa. Isso é impactante porque é bem diferente do formato que a gente tem hoje”, complementou Albino.
A mesa-redonda destacou que o Brasil não precisa replicar modelos asiáticos, mas entender seus princípios: visão sistêmica, continuidade política, investimento em infraestrutura e valorização de professores como agentes centrais da adoção tecnológica. A fluidez entre academia e mercado, por exemplo, foi um choque para os participantes brasileiros, acostumados com barreiras burocráticas e culturais.

Lígia Costa, especialista em Bem-Estar e Liderança Humanizada

Albino Szesz Jr, da PiSigma
“A gente via a universidade e a empresa que tava meio que ligada com aquela universidade e as coisas iam se conectando. A ModelBest é uma empresa criada por alunos e professores. Quem é de realidade universitária aqui sabe que isso no Brasil é um desafio”, comparou o professor e empreendedor Albino Szesz Jr.
O cruzamento entre Missão Ásia e Summit convergiu para um mesmo ponto: a IA na educação é uma oportunidade histórica — desde que seu uso seja informado, ético, crítico e orientado à equidade. A lição trazida não é copiar o modelo asiático de vigilância ou pressão, mas observar que eles não discutem “se” vão usar, mas “como” vão usar para escalar a personalização. Enquanto a Europa regula freando, a Ásia regula educando (letramento digital desde cedo) e integrando a IA como infraestrutura invisível da escola.
O debate sobre IA na educação está deixando de ser futurista para se tornar estrutural. Os desafios são amplos: infraestrutura desigual, riscos cognitivos, regulação insuficiente, formação docente limitada. Mas também há potência: novas formas de avaliar, personalizar, investigar e ampliar a capacidade humana. O Summit aponta que o futuro não está na substituição, e sim na inteligência coletiva — humana e artificial — capaz de transformar a educação de forma ética, crítica e inclusiva.
Confira, abaixo, alguns momentos das diversas atividades realizadas durante o evento para além dos auditórios e palestras:






























