¿Quién educa al algoritmo?
Durante siglos discutimos quién educa a nuestros hijos. La familia, la escuela, el Estado. Hoy la pregunta cambió sin que apenas lo notemos: ¿quién educa al algoritmo?
La Inteligencia Artificial ya no es una promesa futurista. Es la infraestructura invisible que organiza lo que vemos, lo que leemos y, en buena medida, lo que creemos posible. No discutimos si existe. Está aquí. La verdadera cuestión es otra: ¿quién decide cómo funciona?
Los algoritmos no nacen neutrales. Aprenden. Y como todo aprendiz, absorben valores, sesgos y prioridades. Aprenden de datos, sí, pero también de los incentivos que los rodean.
Hace poco, Zoë Hitzig, ex desarrolladora de ChatGPT, decidió abandonar la empresa cuando se abrió la puerta a incorporar publicidad en el sistema.
Zoë no se fue por una falla técnica ni por una disputa laboral. Se fue por una razón ética. Entendió que, si el modelo comenzaba a depender de anunciantes, la naturaleza misma de sus respuestas podría cambiar. Que el conflicto no sería inmediato ni escandaloso, sino gradual y silencioso. Que cuando el conocimiento se financia con pauta, la pregunta deja de ser: ¿qué es verdad? Ahora la pregunta es ¿qué conviene a la empresa (ChatGPT) y qué hago para generarle más ganancias?
El gesto de Zoë importa. Porque nos recuerda algo fundamental: detrás de cada algoritmo hay personas tomando decisiones. Personas capaces de advertir dilemas y asumir consecuencias.
La incorporación de publicidad en sistemas que organizan información no es un detalle administrativo. Es un cambio estructural. Cuando una herramienta que responde preguntas, participa en procesos educativos y media conversaciones públicas empieza a depender de intereses comerciales, se introduce una tensión permanente. El algoritmo ya no solo optimiza calidad; también optimiza ingresos.
No se trata de demonizar la publicidad. Se trata de reconocer que cuando el modelo de negocio condiciona el modelo cognitivo, la independencia se debilita. Un sistema diseñado para maximizar rentabilidad puede terminar privilegiando visibilidad pagada sobre relevancia genuina. Y en ese desplazamiento casi imperceptible, el conocimiento pierde pureza.
Precisamente por eso la gobernanza de la Inteligencia Artificial no puede quedar exclusivamente en manos corporativas. Si los algoritmos influyen en la conversación pública y moldean criterio, forman parte del espacio común. Y lo común exige reglas.
Los Gobiernos deben regular no para frenar la innovación, sino para establecer principios: transparencia en los modelos, separación estricta entre contenido y publicidad, auditorías independientes, mecanismos de rendición de cuentas. Regular no es censurar. Es proteger la integridad del conocimiento.
Educar a un algoritmo no es solo alimentarlo con datos. Es definir el marco ético bajo el cual opera. Y ese marco no puede depender únicamente del mercado.
Aquí las universidades tienen un papel decisivo. No como usuarias pasivas, sino como contrapeso intelectual. No basta con enseñar a usar Inteligencia Artificial. Hay que enseñar a cuestionar quién la financia y bajo qué reglas. Porque un algoritmo no solo organiza datos: organiza la realidad.
Volvemos entonces a la pregunta inicial: ¿Quién educa al algoritmo?
La respuesta no puede ser únicamente el mercado. Debe ser una alianza entre innovación, academia y regulación pública. Porque cuando una tecnología modela el lenguaje y el pensamiento colectivo, deja de ser solo un producto. Se convierte en una institución.
Y las instituciones, en democracia, deben responder al interés común, al interés de todas y todos.