Humanus Ex Machina: La IA no tiene quien le enseñe

La educación actual no forma humanos para supervisar la IA. Sin pensamiento crítico, corremos el riesgo de un futuro con sesgos algorítmicos y desigualdad de conocimiento.

Versión extendida de la columna: La IA no tiene quien le enseñe

Read in English.

¿La educación no debe estar a la moda?

Gobiernos gritando a viva voz: hagamos cursos de programación, de robótica, de inteligencia artificial. La pregunta es: ¿se están adaptando los programas de educación inicial, primaria y secundaria para que los egresados realmente puedan aprovechar estos cursos? Voy a ser más directo: ¿se está enseñando a pensar?

Porque, más allá de que una persona termine siendo programadora, ingeniera, arquitecta o artista, necesita cultura general, pensamiento lógico, crítico y método científico. Sin estas bases, cualquier curso avanzado es solo un manual de instrucciones, no una formación real.

Cuando aprendí a diagramar y programar a los 10 años —otro día les contaré esa historia—, los ingenieros me enseñaban con diagramas para hacer un asado. Les juro que jamás me faltaron fósforos después de eso. Porque no se trataba solo de programar, sino de aprender a descomponer problemas, a pensar en procesos, a entender causas y efectos.

Hoy, mientras la inteligencia artificial avanza, nos enfrentamos a un problema crítico: si no fortalecemos la educación de base, terminaremos con generaciones que entrenan modelos de IA sin entender las consecuencias de sus sesgos, sin capacidad de cuestionar la calidad de los datos ni el impacto de las decisiones algorítmicas. En otras palabras, una sociedad donde unos pocos entienden y controlan la tecnología, mientras el resto es solo mano de obra operativa.

El déficit cognitivo en la educación

El problema no es la falta de cursos de IA. El verdadero problema es que no hay suficiente educación para formar humanos capaces de razonar sobre IA. El pensamiento lógico, el método científico y la capacidad de analizar críticamente los datos no son habilidades que se adquieran mágicamente en un curso. Son estructuras mentales que deben desarrollarse desde la educación básica.

Pero el sistema educativo sigue priorizando la memorización sobre la comprensión. En lugar de enseñar a cuestionar y analizar, se imparten datos fragmentados que los estudiantes deben repetir sin contexto. Como resultado, crecen sin herramientas para identificar sesgos, analizar la veracidad de la información o hacer preguntas relevantes.

Este no es un problema nuevo. Históricamente, muchas sociedades han funcionado con un conocimiento altamente centralizado, donde la mayoría de la población solo ejecutaba tareas sin entender su trasfondo. La civilización azteca, por ejemplo, tenía una élite de eruditos que dominaban matemáticas, astronomía y arquitectura, mientras que el resto de la población simplemente obedecía sin acceso a ese conocimiento.

Si trasladamos este modelo al futuro, corremos el riesgo de replicar un esquema similar: un puñado de expertos entrenando y controlando la IA, mientras el resto solo la usa sin comprender cómo funciona ni cómo podría ser manipulada en su contra.

IA sin humanos pensantes: un peligro latente

La inteligencia artificial, por más avanzada que parezca, no piensa más allá de los límites de su entrenamiento. Solo replica y amplifica patrones presentes en los datos con los que fue alimentada. Es cierto que existen técnicas como el aprendizaje reforzado, el fine-tuning continuo o incluso la autoevaluación entre modelos (self-distillation), que permiten que un sistema mejore su rendimiento sobre ciertas tareas. Pero ese «autoentrenamiento» es siempre autorreferencial: se basa en sus propios datos, en métricas internas, sin criterio externo ni conciencia de lo que deja afuera.

Una IA puede afinar lo que ya sabe. Pero no puede repensarse sola. No puede cuestionar los fundamentos de su entrenamiento, detectar sesgos estructurales o plantearse si el camino que sigue tiene sentido. Para eso necesita humanos que piensen críticamente, que aporten nuevas perspectivas, que le enseñen a ver el mundo desde otras realidades. Sin esa intervención, la IA no evoluciona: solo se repite con mayor precisión.

Aquí surge una paradoja: si no hay suficientes humanos con pensamiento crítico para entrenar, supervisar y corregir a la IA, esta se vuelve inútil o peligrosa.

Si el conocimiento está centralizado en unas pocas manos, la IA únicamente reflejará la visión de esa élite. Y cuando el conocimiento no se renueva ni se cuestiona desde múltiples perspectivas, entramos en un ciclo de endogamia del conocimiento: una IA que recicla los mismos sesgos, repitiendo errores sin evolución real.

El resultado sería una inteligencia artificial, pero no inteligente.

El camino a Humanus Ex Machina

No basta con enseñar a programar. Se debe enseñar a pensar. Si queremos una IA verdaderamente útil, necesitamos formar más humanos capaces de dialogar con ella, de entrenarla con criterio, de entender sus implicaciones filosóficas, éticas y sociales.

Esto requiere reformar la educación desde la base. No podemos aspirar a un futuro tecnológico sin una población que entienda sus fundamentos. Si no fortalecemos la enseñanza de lógica, pensamiento crítico y método científico, solo lograremos una nueva era feudal del conocimiento, donde unos pocos diseñan la realidad y el resto simplemente la acepta.

Si queremos que la IA sea una extensión real de la inteligencia humana, y no solo una herramienta sesgada, necesitamos más mentes capaces de hacer preguntas antes de dar respuestas.

La pregunta clave no es «¿cómo entrenamos a la IA?», sino «¿quién está entrenando a los humanos?», y para qué.

copyright.sergiorentero.com/all-rights-reserved


Gracias a los medios que publicaron este artículo.

Infobae


Sergio Rentero

Entrepreneur | Artist | Thinker | Technologist | Founder of IURIKA | GOTIKA | UNBORING

https://sergiorentero.com
Previous
Previous

Humanus Ex Machina: AI Has No One Left to Teach It

Next
Next

Synthetic Meningitis: The Robot Cook Has a Fever