Imagino esta escena, cada vez más común: una alumna de universidad, con su portátil abierto y consultando ChatGPT para estructurar un ensayo. Revisa ideas, afina argumentos, le pregunta a la IA por contraejemplos. Cuando termina, se detiene un instante y se pregunta para sí misma:
“¿Esto está bien?, ¿estoy haciendo trampa?, ¿debería citarlo en mi ensayo?”
No es una simple duda técnica. Es una pregunta ética. Y no es la única que circula entre las y los estudiantes del presente.
Según una reciente encuesta realizada por College Rover en EE.UU., el 62 % del alumnado universitario considera que el uso responsable de la inteligencia artificial será clave para su éxito profesional. Pero aquí viene el matiz: solo una parte sabe realmente qué significa “responsable” en este contexto. El resto, duda. Intuye que algo importante está en juego, pero no tiene las herramientas ni los referentes claros para actuar con confianza.
Aprender IA ya no es opcional (y tampoco lo es hacerlo bien)
Los datos del estudio son elocuentes. El 50 % de quienes respondieron cree que aprender a utilizar herramientas de IA es la habilidad más relevante en su formación universitaria. La mayoría ya las usa: el 87 % en tareas académicas y el 90 % en su vida cotidiana, dedicando un promedio de cinco horas semanales en ambos casos.
Esto indica una realidad innegable: el uso de IA ya está integrado en la rutina formativa de la generación que hoy habita las aulas. Pero no basta con saber usarla. El diferencial está en cómo se usa, con qué criterio, desde qué valores. Y ahí, la formación institucional va por detrás.
Un vacío formativo que inquieta (y limita)
Aunque un 73 % del estudiantado señala que su universidad o colegio ya tiene políticas sobre el uso de IA, solo un tercio (34 %) se siente realmente capaz de utilizar estas herramientas de manera ética. Más aún: el 46 % teme sanciones por mal uso, pero no sabe con certeza cómo evitarlas.
Aquí se revela una brecha crítica: la alfabetización ética en IA no está llegando con claridad ni profundidad. El alumnado navega en un mar de herramientas cada vez más potentes, sin brújula ni mapa. ¿Quién les enseña a distinguir entre asistencia y dependencia? ¿Cómo se discute el sesgo, la privacidad o el impacto emocional del uso continuo de IA?
La paradoja: responsabilidad como expectativa, pero no como competencia
Es llamativo (y esperanzador) que la mayoría vea en el uso responsable de la IA una ventaja competitiva para su carrera profesional. No se trata solo de eficiencia, sino de reputación, de credibilidad, de toma de decisiones. Sin embargo, estamos ante una generación que se siente interpelada por la ética… sin haber sido formada en ella.
La paradoja es evidente: se espera que las y los jóvenes actúen con madurez tecnológica, pero no se les ha acompañado a desarrollar esa madurez. Se les evalúa por competencias éticas, sin haberlas cultivado explícitamente. Se les exige discernimiento, pero se les ofrecen marcos normativos confusos, contradictorios o meramente punitivos.
¿Y si cambiamos la pregunta?
¿Qué pasaría si en lugar de preguntar “¿cómo usar IA sin hacer trampa?” preguntáramos “¿cómo quiero aprender en la era de la IA?”?
Cambiar el enfoque nos lleva a otro tipo de conversación: menos centrada en la vigilancia y más en la responsabilidad compartida. Una conversación que involucre a docentes, instituciones, plataformas tecnológicas y al propio estudiantado en un diseño consciente de su relación con la IA. Porque la sociedad que queremos se construye entre todas y todos, desde los distintos roles personales y profesionales que asumimos en la vida.
Porque al final, la pregunta no es solo “qué puedo hacer con la IA”, sino “qué tipo de profesional quiero ser con ella”.
Hacia una alfabetización ética integral
No se trata de agregar un módulo de “ética en IA” al final de la carrera (de manera similar a la fallida asignatura “Educación para la Ciudadanía” o la actual “Valores Cívicos y Éticos”). Se trata de transversalizar la reflexión crítica, la conciencia del impacto y la capacidad de agencia en todos los niveles de formación. De abrir espacios donde se pueda nombrar la ambigüedad, el miedo, el entusiasmo, la incertidumbre.
Se trata de formar personas que no solo usen la IA, sino que piensen con ella y sobre ella, desde marcos éticos claros, contextualizados y dialogados.
Es evidente que hablar de la IA desde su potencial técnico o funcional resulta, a menudo, más atractivo y accesible. Pero aunque pueda requerir un esfuerzo mayor, adoptar también un enfoque ético —y ser realmente conscientes de lo que eso implica— es fundamental si queremos avanzar con seguridad hacia el futuro (y el presente) que deseamos construir.
Y eso implica un giro profundo en cómo entendemos la preparación profesional en tiempos de automatización inteligente.
Cierro con tres preguntas
- ¿Estamos formando a quienes saben pedirle a la IA que haga algo… o a quienes saben cuándo y por qué no pedirlo?
 - ¿Qué espacios reales de conversación ética estamos creando en nuestras instituciones educativas?
 - ¿Qué rol queremos jugar como profesionales en el diseño cultural del uso de la IA?
 
Quizá, en la respuesta a estas preguntas esté la verdadera carta de presentación para el futuro profesional.
#IAResponsable #FuturoProfesional #EducaciónCrítica #ÉticaDigital #DeCeroAIA
															
