Os debates da primeira edição do Summit Explore IA na Educação mostraram como a IA na educação reúne desafios éticos, riscos cognitivos e avanços estruturantes
A primeira edição do Summit Explore IA na Educação, realizada em São Paulo no último dia 18, reuniu especialistas, gestores e pesquisadores para discutir um fenômeno que já remodela o cotidiano escolar: a inteligência artificial está transformando a educação antes mesmo de se tornar política pública consolidada. O impacto aparece na forma como alunos pesquisam, aprendem e constroem vínculos cognitivos — muito antes de a tecnologia chegar oficialmente à sala de aula.
Com debates que atravessaram ética, currículo, infraestrutura, psicologia e regulação, o evento destacou uma virada profunda: a IA não é apenas uma ferramenta nova, mas um ambiente cultural que redefine o que significa aprender, ensinar e se relacionar com a informação. Essa transição acontece em paralelo às desigualdades estruturais das escolas brasileiras, criando contrastes que desafiam gestores e redes públicas.
Os especialistas ressaltaram que a euforia em torno da inovação convive com uma base frágil: conectividade insuficiente, sobrecarga docente e ausência de governança institucional colocam a IA em um terreno instável. Discutir personalização, avaliação automatizada ou práticas avançadas perde força quando milhares de escolas ainda disputam condições mínimas para funcionar.
Ainda assim, o impacto mais profundo pode estar ocorrendo fora da vista. A naturalização das interações com sistemas generativos já modifica o comportamento dos jovens, influenciando confiança, autonomia e a forma como constroem sentido sobre o mundo. A IA entra pela porta da cultura digital antes de entrar pela porta da escola — e essa assimetria exige respostas rápidas.
Nesse cenário, especialistas convergiram para uma questão central: preparar a educação brasileira para a era algorítmica significa ir além das ferramentas. É preciso formar repertórios críticos, garantir soberania cognitiva e equilibrar inovação com equidade material. O Summit marcou o início dessa discussão coletiva.




Personalização, avaliação e aprendizagem: a IA como diálogo
Nos debates sobre currículo e aprendizagem, a IA apareceu menos como automação e mais como ampliação das possibilidades avaliativas. A ideia de “avaliação dialogada” — em que o aluno conversa com o sistema e revela seu raciocínio — ganhou destaque como alternativa às provas tradicionais. Sandro Bonás, CEO da Conexia, destacou o potencial disruptivo desse modelo: “Pela primeira vez criamos uma engenhoca que conversa como humano. Isso pode dar um cavalo de pau na avaliação escolar.”
Ao automatizar tarefas como correções e análises de desempenho, a IA devolve tempo ao professor para o que é insubstituível: mediação, escuta, intervenção pedagógica. Para Bruno Elias, CEO de fundador do Grupo Salta, o ganho concreto é a chave da adoção docente: quando o professor percebe que a IA ajuda a montar uma boa questão, organizar uma aula ou identificar lacunas de aprendizagem, o valor fica evidente. “O professor ver resultados claros para ele. A vida do professor hoje é muito dura. Quando você ensina ele a montar a questão com IA, ele começa a ver que tem valor.”
Guilherme Cintra, diretor de Inovação e Tecnologia da Fundação Lemann, argumentou que a personalização via IA não é sobre avançar conteúdo, mas sobre diagnosticar lapsos do passado. Ao corrigir a base, a tecnologia devolve ao aluno sua “confiança renovada”, curando a sensação de incapacidade. Mas o especialista também criticou o mercado por criar ferramentas para os “5% dos alunos que já funcionam”, deixando de lado os 95% da escola pública real que precisam de soluções para defasagens graves e infraestrutura precária.
Cintra encerrou com uma provocação filosófica: o risco de a IA nos viciar em interações sem conflito. Ele alerta que a IA é perigosa justamente porque é “confortável” e não gera atrito, ao contrário das relações reais. “Relação humana tem fricção… ter uma ferramenta que fala o que você quer ouvir é muito mais gostoso, o que pode atrofiar nossa capacidade de conviver. O incentivo econômico é para que a gente tenha soluções que nos agradem. O espaço da humanidade é o espaço da relação, e a gente tem que ter um papo muito sério para preservar esse espaço.”
Ainda no painel sobre Personalização, Américo Amorim, fundador da Escribo, trouxe um olhar raro: o uso da IA na Educação Infantil. Ele fugiu do lugar-comum de “ensinar conteúdo” e focou na gestão pedagógica e no alívio da carga burocrática do professor (escrita de relatórios), além de expor a dificuldade real de interpretar a BNCC na prática. “A BNCC tem 33 objetivos de aprendizagem e agora tem mais 11 de computação. Imagine você, professora, parar, olhar um objetivo, pensar naquela criança de 4 anos. Tem um objetivo que é ‘aprender a expressar suas emoções, seus desejos… por meio da linguagem oral, escrita, fotos’. Como é que a professora avalia isso?”, disparou.
A personalização também apareceu como eixo de reconstrução do currículo enciclopédico, permitindo trajetórias flexíveis e aprendizagem baseada em domínio. Mas o consenso foi contundente: a IA só humaniza a escola se libertar o professor da burocracia — não se criar um novo conjunto de tarefas artificiais.
Soberania cognitiva e os riscos da intimidade sintética
Um dos pontos de tensão mais fortes do Summit veio do debate psicológico sobre o uso da IA. O Brasil vive uma combinação paradoxal: altíssimo entusiasmo e baixa percepção de risco. Isso acelera a antropomorfização das ferramentas e a formação de vínculos emocionais com sistemas que simulam diálogo humano.

A pesquisadora Carla Mayumi trouxe dados alarmantes para o Summit
A pesquisadora de comportamentos Carla Mayumi alertou para o fenômeno da “intimidade sintética”: “Metade das pessoas já usa IA como amigo ou conselheiro.” A fronteira entre mediação tecnológica e substituição afetiva torna-se difusa, sobretudo entre jovens que buscam respostas rápidas para angústias complexas.
Outro risco discutido foi a erosão gradual da autonomia cognitiva. O professor, pesquisador e TEDx Speaker Marcel Nobre resumiu o problema: “Se transferirmos nossa parte criativa e cognitiva para a máquina, vamos emburrecer.”
A alfabetização em IA, portanto, não pode se limitar a comandos. Ela precisa ensinar que sistemas generativos não sentem, não têm intencionalidade e podem alucinar. Preservar a soberania cognitiva significa cultivar pensamento crítico para que o usuário não terceirize raciocínio ou afeto para algoritmos.










