La inteligencia artificial (IA) ha revolucionado la educación y la práctica profesional, ofreciendo herramientas como ChatGPT, Wolfram Alpha o solucionadores automáticos de ecuaciones. Sin embargo, su uso irracional en la formación de ingenieros plantea un dilema ético y pedagógico: ¿estamos formando profesionales con pensamiento crítico o dependientes de algoritmos? Este ensayo argumenta que la mala utilización de la IA especialmente en la resolución automática de problemas matemáticos debilita la capacidad analítica, creativa y lógica de los futuros ingenieros, comprometiendo su desarrollo profesional y su aporte a la sociedad.
La IA en la formación del ingeniero. Las nuevas generaciones de estudiantes, denominadas “nativos digitales”, crecieron en un entorno donde acceder a respuestas inmediatas es la norma. Plataformas como Photomath o Symbolab resuelven integrales, ecuaciones diferenciales y problemas de física en segundos. Aunque estas herramientas son útiles para verificar resultados, su uso indiscriminado reemplaza el proceso de razonamiento matemático, reduciéndolo a un acto mecánico (Unesco, 2022).
Consecuencias del uso irracional de la IA
a) Pérdida del pensamiento crítico: La resolución manual de problemas matemáticos no solo enseña a calcular, sino a estructurar ideas, identificar patrones y corregir errores. Al delegar estas tareas a la IA, los estudiantes omiten etapas clave del aprendizaje, como la formulación de hipótesis o la interpretación de resultados. Un estudio en la Universidad de Buenos Aires reveló que el 60% de los alumnos que usaban solucionadores automáticos no podían explicar los pasos intermedios de un cálculo (Díaz & Fernández, 2023).
b) Aprendizaje superficial: La IA genera respuestas correctas, pero no enseña a enfrentar problemas mal estructurados o con datos incompletos, escenarios comunes en la ingeniería real. Por ejemplo, ChatGPT puede resolver una ecuación diferencial, pero no contextualizar su aplicación en el diseño de un puente antisísmico. Esto limita la capacidad de los ingenieros para innovar o adaptarse a desafíos imprevistos (OECD, 2021).
c) Dependencia tecnológica: La comodidad de obtener soluciones instantáneas crea una cultura de la inmediatez, donde el esfuerzo intelectual se percibe como innecesario. Según un informe de la Ieee (2023), el 45% de los ingenieros junior en EE UU reconocen depender de herramientas de IA para tareas básicas de cálculo, lo que aumenta el riesgo de errores en proyectos críticos.
Responsabilidades éticas y pedagógicas. La solución no radica en prohibir la IA, sino en integrarla de forma crítica y complementaria. Las universidades deben:
– Enseñar a usar la IA como un recurso de verificación, no como un sustituto del razonamiento.
– Diseñar evaluaciones que valoren el proceso (desarrollo de fórmulas, gráficos manuales) más que el resultado final.
– Fomentar problemas abiertos, donde la creatividad humana supere las limitaciones de los algoritmos.
Por ejemplo: En el MIT, los cursos de cálculo incluyen ejercicios que obligan a los estudiantes a comparar soluciones manuales con las de IA, identificando sesgos o errores en los algoritmos (Rodríguez, 2022).
En definitiva, la IA es un avance invaluable, pero su mal uso en la formación de ingenieros amenaza con crear profesionales “huecos”, incapaces de pensar más allá de lo que un algoritmo les dicta. Urge un llamado a la acción para equilibrar tecnología y pensamiento humano: las universidades, empresas y estudiantes deben priorizar el desarrollo de habilidades matemáticas profundas, no solo la eficiencia.
Si bien es cierto que: “La IA puede resolver problemas, es solo el ser humano quien sabe, cuáles merecen ser resueltos”.