ISSN-e: 3078-6983
Período: enero-abril, 2026
Revista Noesis
Vol. 3, Número 6. (pp. 42-52)
Artículo de investigación https://doi.org/10.47460/noesis.v3i6.56
Dependencia de herramientas de inteligencia artiőcial y su impacto en la
profundidad del aprendizaje en estudiantes universitarios: un análisis desde
la autorregulación académica
Pablo Rivera Ramos*
http://orcid.org/0000-0003-4553-6039
40067819@continental.edu.pe
Continental University of Florida
Trujillo - Peru
*Autor de correspondencia: 40067819@continental.edu.pe
Recibido: (17/01/2026), Aceptado: (11/03/2026)
Resumen. El presente estudio analizó la relación entre la dependencia de herramientas de inteligencia ar-
tiĄcial y la profundidad del aprendizaje en estudiantes universitarios, considerando el papel mediador de la
autorregulación académic a. Se adoptó un enfoque cuantitativo con diseño no experimental, transversal y
alcance explicativo, trabajando con una muestra de 210 estudiantes de educación superior. Los resultados
evidenciaron una relación negativa moderada entre la depe ndencia de inteligencia artiĄcial y la profundidad del
aprendizaje, así como una relación positiva signiĄcativa entre la autorregulación académica y el aprendizaje
profundo. Asimismo, se conĄrmó el efecto mediador de la autorregulación, indicando que su nivel condiciona la
forma en que los estudiantes utilizan estas tecnologías. Se concluye que el impacto de la inteligencia artiĄcial
en el aprendizaje no es determinista, sino que depende de las competencias metacognitivas del estudiante, lo
que plantea la necesidad de fortalecer estrategias educativas orientadas a un uso crítico y reĆexivo de estas
herramientas.
Palabras clave: inteligencia artiĄcial, aprendizaje profundo, autorregulación académica, educación superior,
dependencia tecnológica.
Dependence on Artificial Intelligence Tools and Its Impact on the Depth of Learning in
University Students: An An alysis from the Persp ective of Academic Self-Regulation
Abstract. This study analyzed the relationship between dependence on artiĄcial intelligence tools and the
depth of learning in university students, considering the mediating role of academic self-regulation. A quantita-
tive approach was adopted with a non-experimental, cross-sectional design and an explanatory scope, working
with a sample of 210 higher education students. The results revealed a moderate negative relationship between
dependence on artiĄcial intelligence and depth of learning, as well as a signiĄcant positive relationship between
academic self-regulation and deep learning. Likewise, the mediating effect of self-regulation was conĄrmed,
indicating that its level conditions the way students use these technologies. It is concluded that the impact
of artiĄcial intelligence on learning is not deterministic, but rather depends on the studentŠs metacognitive
competencies, which raises the need to strengthen educational strategies aimed at a critical and reĆective use
of these tools.
Keywords: artiĄcial intelligence, deep learning, academic self-regulation, higher education, technological
dependence.
Rivera P. Dependencia de herramientas de inteligencia artificial y su impacto en la profundidad del aprendizaje en
estudiantes universitarios
42
ISSN-e: 3078-6983
Período: enero-abril, 2026
Revista Noesis
Vol. 3, Número 6. (pp. 42-52)
I. INTRODUCCIÓN
La incorporación de la inteligencia artiĄcial (IA) en la educación superior ha generado una transformación
signiĄcativa en las dinámicas de enseñanza y aprendizaje, particularmente a partir del desarrollo de herramien-
tas generativas capaces de producir texto, resolver problemas y asistir en tareas académicas complejas en
tiempo real. Estas tecnologías han ampliado las posibilidades de acceso al conocim iento, favoreciendo la per-
sonalización del aprendizaje y la eĄciencia en la ejecución de actividades académicas [1], [2]. Sin embargo,
su uso intensivo también ha suscitado un creciente interés en la comunidad cientíĄca debido a sus posibles
efectos sobre la calidad del aprendizaje, especialmente en relación con la profundidad cognitiva y el desarrollo
del pensamiento crítico en estudiantes universitarios.
En este contexto, diversos estudios han señalado que la facilidad de acceso a respuestas automatizadas
puede fomentar enfoques de aprendizaje superĄcial, caracterizados por la memorización mecánica y la e scasa
elaboración conceptual, en contraste con enfoques profundos orientados a la comprensión, integración y apli-
cación del conocimiento [
3], [4]. La disponibilidad de sistemas como ChatGPT introduce el riesgo de que
los estudiantes deleguen procesos cognitivos esenciales, como el análisis, la síntesis y la argumentación, en
herramientas externas, lo que podría afectar la consolidación de aprendizajes signiĄcativos y duraderos [
5],
[
6]. No obstante, la literatura también recono ce que estos efectos no son intrínsecos a la tecnología, sino que
dependen de la forma en que esta es utilizada dentro del proceso educativo.
Desde una perspectiva teórica, la autorregulación académica se presenta como un constructo clave para
comprender esta problemática. De acuerdo con Zimmerman, el aprendizaje autorregulado implica procesos
activos de planiĄcación, monitoreo y evaluación del propio desempeño, lo que permite al estudiante gestionar
de manera consciente sus estrategias cognitivas y metacognitivas [
7]. En entornos mediados por inteligencia
artiĄcial, estas competencias adquieren una relevancia aún mayor, ya que el estudiante debe ser capaz de
utilizar la tecnología de forma crítica, evitando una dependencia excesiva que limite su implicación cognitiva
[
8], [9]. En este sentido, la autorregulación no solo inĆuye en el rendimiento académico, sino que también
determina la calidad del aprendizaje alcanzado.
Adicionalmente, la teoría social cognitiva aporta un marco explicativo complementario al destacar el papel
de la autoeĄcacia en la conducta académica. Bandura sostiene que las creencias sobre la propia capacidad
inĆuyen en el nivel de esfuerzo, persistencia y elección de estrategias frente a las tareas [
10]. Así, estudiantes con
baja autoeĄcacia podrían recurrir con mayor frecuencia a herramientas de IA como mecanismo compensatorio,
incrementando su dependencia y reduciendo su participación activa en el proceso de aprendizaje.
En consecuencia, el análisis de la relación entre dependencia de herramientas de inteligencia artiĄcial y
profundidad del aprendizaje requiere integrar enfoques provenientes de la psicología educativa, la teoría del
aprendizaje y los estudios sobre tecnología educativa. El presente estudio se orienta a examinar cómo el uso de
estas herramientas inĆuye en la profundidad del aprendizaje en estudiantes universitarios, considerando el papel
mediador de la autorregulación académica, con el Ąn de aportar evidencia relevante para el diseño de estrategias
pedagógicas que promuevan un uso crítico, reĆexivo y cognitivamente enriquecedor de la inteligencia artiĄcial
en contextos educativos contemporáneos.
II. MARCO TEÓRICO
La expansión de la inteligencia artiĄcial generativa en la educación superior ha modiĄcado de manera
sustancial la forma en que los estudiantes acceden a la información, producen textos, resuelven problemas
y organizan sus tareas académicas. A diferencia de tecnologías educativas previas, estas herramientas no
solo facilitan el acceso a contenidos, sino que también generan respuestas, sintetizan información, proponen
estructuras argumentativas y ofrecen apoyo inmediato en actividades tradicionalmente asociadas al esfuerzo
cognitivo individual. Este cambio ha abierto oportunidades pedagógicas relevantes, pero también ha intensi-
Ącado las preocupaciones sobre la autenticidad del aprendizaje, la pérdida de esfuerzo intelectual y la posible
sustitución de procesos de razonamiento por respuestas automatizadas [
9], [11].
En este contexto, la IA no debe entenderse únicamente como un recurso instrumental, sino como un
agente que reconĄgura la relación entre estudiante, conocimiento y tarea académica. Desde una perspectiva
educativa, ello obliga a examinar no solo la utilidad de la herramienta, sino también las condiciones bajo las
Rivera P. Dependencia de herramientas de inteligencia artificial y su impacto en la profundidad del aprendizaje en
estudiantes universitarios
43
ISSN-e: 3078-6983
Período: enero-abril, 2026
Revista Noesis
Vol. 3, Número 6. (pp. 42-52)
cuales su uso favorece o debilita la comprensión profunda. La preocupación central no radica en la existencia
de la tecnología en misma, sino en el grado en que el estudiante delega en ella procesos como la búsqueda
analítica, la comparación de fuentes, la elaboración conceptual y la autorrevisión académica [
9], [11].
A. Dependencia de herramientas de inteligencia artificial y externalización cognitiva
Uno de los conceptos más relevantes para este tema es la dependencia tecnológica, entendida como la
tendencia a recurrir de mane ra reiterada y creciente a sistemas externos para ejecutar tareas que antes requerían
elaboración intelectual propia. En el caso de la IA generativa, esta dependencia puede expresarse cuando el
estudiante deja de usar la herramienta como apoyo y comienza a convertirla en sustituto de procesos esenciales
del aprendizaje, como interpretar, argumentar, resumir críticamente o construir respuestas originales. Estudios
recientes muestran que la dependencia no es homogénea, sino que adopta perĄles diversos, desde usos limitados
para búsqueda o retroalimentación hasta formas de delegación directa de tareas académicas completas [
7].
Este fenómeno puede explicarse a la luz de la teoría de la externalización cognitiva o cognitive offloading,
según la cual los individuos descargan parte del procesamiento mental en herramientas externas para reducir
demanda cognitiva. En términos funcionales, ello puede ser útil cuando libera recursos para tareas de mayor
complejidad; sin embargo, en contextos educativos también puede reducir las oportunidades de consolidación
conceptual, especialmente si la herramienta reemplaza actividades necesarias para la formación de esquemas,
la elaboración de inferencias y la memoria signiĄcativa [
6]. La preocupación teórica, por tanto, no es que el
estudiante use apoyo externo, sino que lo haga sin una mediación reĆexiva que preserve el trabajo cognitivo
central del aprendizaje universitario [
6], [8].
B. Profundidad del aprendizaje: enfoques profundo y superficial
La categoría de profundidad del aprendizaje encuentra uno de sus principales fundamentos en los trabajos
de Marton y Säljö [
4], quienes distinguieron entre enfoques profundos y superĄciales del aprendizaje. El enfoque
profundo se caracteriza por la intención de comprender, relacionar ideas, identiĄcar principios subyacentes y
construir signiĄcado; en cambio, el enfoque superĄcial se orienta a la reproducción mecánica de información,
la memorización fragmentada y el cumplimiento mínimo de la tarea. Esta distinción resulta especialmente
pertinente en el estudio del uso de IA, pues la disponibilidad de respuestas inmediatas puede favorecer la ilusión
de comprensión sin que exista necesariamente procesamiento conceptual genuino [
4].
A esta base se suma la propuesta de Biggs sobre el alineamiento constructivo, según la cual el aprendizaje
universitario de calidad exige coherencia e ntre resultados esperados, actividades de aprendizaje y evaluación.
Desde esta perspectiva, la profundidad del aprendizaje no depende solo de la motivación individual, sino
también del modo en que el entorno formativo exige comprensión, análisis y transferencia. Si las tareas
académicas pueden resolverse mediante respuestas generadas automáticamente y las evaluaciones premian
la reproducción antes que la elaboración, aumenta la probabilidad de que el estudiante adopte un enfoque
superĄcial, incluso cuando dispone de recursos tecnológicos soĄsticados [
5].
En consecuencia, analizar el impacto de la dependencia de IA sobre la profundidad del aprendizaje implica
valorar si el estudiante sigue realizando operaciones cognitivas de orden superior, analizar, evaluar, integrar
y argumentar, o si, por el contrario, desplaza estas operaciones hacia la herramienta. En este punto, la
profundidad del aprendizaje se vincula también con el desarrollo de habilidades de pensamiento de orden
superior, indispensables en la formación universitaria contemporánea [
5], [8].
C. Autorregulación académica como eje explicativo central
La autorregulación del aprendizaje constituye el marco teórico más sólido para comprender por qué algunos
estudiantes utilizan la inteligencia artiĄcial como apoyo estratégico, mientras otros desarrollan formas de
dependencia que empobrecen su aprendizaje. Zimmerman deĄne la autorregulación como un proceso activo
mediante el cual los estudiantes planiĄcan, monitorean y evalúan su propio aprendizaje. Su modelo plantea
tres fases cíclicas: anticipación o forethought, ejecución o performance y autorreĆexión o self-reĆection [
1]. En
la primera, el estudiante establece metas y planiĄca estrategias; en la segunda, controla su atención, monitorea
su progreso y ajusta su desempeño; en la tercera, evalúa resultados y rede Ąne sus acciones futuras [
1].
Rivera P. Dependencia de herramientas de inteligencia artificial y su impacto en la profundidad del aprendizaje en
estudiantes universitarios
44
ISSN-e: 3078-6983
Período: enero-abril, 2026
Revista Noesis
Vol. 3, Número 6. (pp. 42-52)
La relevancia de esta teoría para el presente tema es directa. Un estudiante con adecuada autorregulación
no usa la IA de forma pasiva ni indiscriminada, sino que delimita su función dentro del proceso de aprendizaje:
consulta, contrasta, veriĄca, corrige y decide. En cambio, cuando la autorregulación es débil, la herramienta
puede convertirse en un atajo permanente que reduce la implicación cognitiva y favorece la dependencia. Por
ello, la autorregulación académica no solo opera como variable psicológica de interés, sino como posible factor
mediador o moderador entre el uso de IA y la profundidad del aprendizaje [
1], [3], [8].
Además, la literatura ha mostrado que la autorregulación no se limita a la gestión conductual del estudio,
sino que involucra componente s motivacionales y metacognitivos. Pintrich y De Groot mostraron que el
desempeño académico se relaciona con componentes motivacionales y de aprendizaje autorregulado, mientras
que la tradición de Zimmerman subraya e l papel de metas, monitoreo y autorreacción en el progreso académico
[
1], [3]. En escenarios mediados por IA, estas dimensiones adquieren mayor importancia porque el estudiante
necesita discernir cuándo la herramienta amplía su pensamiento y cuándo lo reemplaza [
1], [3].
D. Teoría social cognitiva y autoeficacia académica
La autorregulación académica se articula estrechamente con la teoría social cognitiva de Bandura, es-
pecialmente con el constructo de autoeĄcacia. La autoeĄcacia se reĄere a la creencia del individuo en su
capacidad para organizar y ejecutar acciones orientadas al logro de un desempeño especíĄco [2]. En el ámbito
académico, esta creencia inĆuye en la elección de tareas, el esfuerzo, la persistencia y la calidad de las estrate-
gias empleadas. Cuando el estudiante confía en su capacidad para comprender, escribir, resolver problemas o
argumentar, es más probable que se involucre activamente en el proceso de aprendizaje; cuando dicha conĄ-
anza es baja, puede tender a evitar el esfuerzo y a depender más intensamente de apoyos externos [
2], [12].
Este punto es crucial para el estudio del uso de IA. Una dependencia excesiva de herramientas inteligentes
puede reĆejar no solo comodidad tecnológica, sino también inseguridad académica. El estudiante que percib e
insuĄciente capacidad para desarrollar una tarea por mismo puede apoyarse en la IA no como complemento,
sino como mecanismo compensatorio. De este modo, la autoeĄcacia académica puede ayudar a explicar por
qué el uso de una misma herramienta genera trayectorias formativas distintas: en algunos casos fortalece el
aprendizaje, y en otros lo debilita [
2], [12].
E. Carga cognitiva y riesgos de sustitución del procesamiento intelectual
La teoría de la carga cognitiva propuesta por Sweller ofrece otro fundamento importante para este tema.
Esta teoría sostiene que el aprendizaje depende de cómo se distribuyen los recursos limitados de la memoria
de trabajo durante la resolución de tareas. Sweller advirtió que ciertos modos de resolver problemas pueden
consumir tanta capacidad de procesamiento que interĄeren con la adquisición de esquemas duraderos [
6].
Aplicado al uso de IA, este marco permite una doble lectura: por un lado, la herramienta puede reducir carga
innecesaria y facilitar el acceso inicial a una tarea; por otro, si elimina por completo el esfuerzo de análisis,
comparación y construcción, también puede limitar la formación de estructuras cognitivas estables [
6].
Por ello, el problema no es simplemente Şusar IAŤ, sino cómo se integra la IA en el recorrido cognitivo
del estudiante. Si la tecnología se inserta como apoyo para clariĄcar, guiar o retroalimentar, puede favorecer
el apre ndizaje. Pero si aparece en la fase central de resolución sustituyendo la elaboración del estudiante,
entonces puede obstaculizar la comprensión profunda. Esta tensión ha sido observada en investigaciones
recientes, donde los modelos guiados de uso de ChatGPT mostraron mejores resultados en autorregulación,
pensamiento de orden superior y construcción de conocimiento que los usos tradicionales no guiados [
8].
F. Evidencia reciente sobre ChatGPT, dependencia y aprendizaje universitario
La investigación contemporánea ya ofrece indicios claros de que el uso estudiantil de herramientas como
ChatGPT no sigue un patrón único. Stojanov, Liu y Koh [
7] identiĄcaron perĄles diferenciados de dependencia:
algunos estudiantes recurren a la IA para planiĄcación, retroalimentación o búsqueda de información, mientras
otros la emplean para redactar tareas completas o delegar el trabajo académico. Esta heterogeneidad es
teóricamente relevante porque sugiere que el impacto de la IA sobre la profundidad del aprendizaje no puede
analizarse solo desde la frecuencia de uso, sino desde la Ąnalidad pedagógica del uso [7].
Rivera P. Dependencia de herramientas de inteligencia artificial y su impacto en la profundidad del aprendizaje en
estudiantes universitarios
45
ISSN-e: 3078-6983
Período: enero-abril, 2026
Revista Noesis
Vol. 3, Número 6. (pp. 42-52)
De forma complementaria, Lee et al. demostraron que un uso guiado de ChatGPT, basado en exigir al
estudiante una elaboración inicial antes de consultar la herramienta, mejora la autorregulación, las habilidades
de pensamiento de orden superior y la construcción de conocimiento frente al uso convencional del sistema [
8].
Este hallazgo respalda la idea de que la IA no tiene un efecto lineal ni intrínsecamente negativo o positivo; sus
resultados dependen del diseño pedagógico, de la calidad de la mediación y del grado de agencia que conserva
el estudiante durante la tarea [
8].
G. Referentes normativos y éticos aplicables al uso de IA en educación
En cuanto al plano normativo, todavía no existe una ley educativa universal especíĄca que regule de manera
homogénea el uso de IA generativa en la educación superior; sin embargo, existen marcos internacionales
de referencia que resultan plenamente pertinentes para este tema. La UNESCO, en su Recommendation
on the Ethics of ArtiĄcial Intelligence, establece como principios centrales la dignidad humana, la equidad, la
transparencia, la justicia y la supervisión humana de los sistemas de IA [
10]. Estos principios son especialmente
relevantes en el ámbito universitario porque el aprendizaje no puede reducirse a un proceso automatizado sin
mediación ética y pedagógica [
10].
Asimismo, la Guidance for Generative AI in Education and Research de la UNESCO subraya que la IA
generativa debe integrarse con visión centrada en el ser humano y con salvaguardas relacionadas con calidad,
sesgos, protección de datos, integridad académica y desarrollo de capacidades críticas [9]. Por su parte, la
OCDE ha mostrado que, hasta fechas recientes, la mayoría de países avanzan más mediante orientaciones y
guías no vinculantes que mediante regulación estricta, lo que traslada a las universidades una gran respon-
sabilidad en la deĄnición de políticas internas sobre uso pedagógico, transparencia, evaluación e integridad
[
11].
En consecuencia, el estudio de la dependencia de herramientas de IA no solo es un asunto cognitivo o
didáctico, sino también ético e institucional. El uso indiscriminado de estas tecnologías puede comprometer
la autoría intelectual, la autenticidad del desempeño académico y la equidad entre estudiantes con distintos
niveles de alfabetización digital. Por ello, cualquier análisis serio del tema debe situarse en la convergencia
entre aprendizaje, autorregulación, integridad académica y gobernanza tecnológica [
9], [10], [11].
A partir de lo expuesto, el tema puede comprenderse mediante una articulación de cinco ejes: primero,
la distinción entre aprendizaje profundo y superĄcial [
4], [5]; segundo, la autorregulación académica como
proceso de planiĄcación, control y reĆexión [
1], [3]; tercero, la autoeĄcacia como base motivacional del
esfuerzo intelectual [
2], [12]; cuarto, la carga cognitiva y la externalización del procesamiento en herramientas
tecnológicas [
6]; y quinto, los marcos éticos e institucionales que orientan el uso responsable de la IA en
educación [
9], [10], [11].
Desde esta lógica, la dependencia de herramientas de inteligencia artiĄcial puede conceptualizarse como
una condición que tiende a debilitar la profundidad del aprendizaje cuando reduce la implicación cognitiva
del estudiante; no obstante, dicho efecto no es automático, pues depende del nivel de autorregulación, de la
autoeĄcacia, del diseño de las tareas y del tipo de mediación pedagógica implementada. En consecuencia,
la autorregulación académica emerge como el constructo central para explicar por qué la IA, en unos casos,
ampliĄca el aprendizaje y, en otros, lo superĄcializa.
III. METODOLOGÍA
El estudio se desarrolló bajo un enfoque cuantitativo de tipo correlacionalŰexplicativo, orientado a analizar
la relación entre la dependencia de herramientas de inteligencia artiĄcial, la autorregulación académica y la
profundidad del aprendizaje en estudiantes universitarios. Se adoptó un diseño no experimental, transversal,
dado que las variables fueron observadas en su contexto natural sin manipulación deliberada. Adicionalmente,
el estudio incorporó un componente analítico avanzado mediante la estimación de un modelo de regresión
múltiple jerárquica, complementado con un análisis de mediación, con el Ąn de identiĄcar no solo relaciones
directas, sino también mecanismos explicativos subyacentes entre las variables.
Rivera P. Dependencia de herramientas de inteligencia artificial y su impacto en la profundidad del aprendizaje en
estudiantes universitarios
46
ISSN-e: 3078-6983
Período: enero-abril, 2026
Revista Noesis
Vol. 3, Número 6. (pp. 42-52)
A. Población y muestra
La población estuvo conformada por estudiantes de educación superior. Se trabajó con una muestra de 210
estudiantes, seleccionados mediante muestreo no probabilístico por conveniencia, considerando como criterio
de inclusión el uso frecuente de herramientas de inteligencia artiĄcial en actividades académicas.
Por otra parte, se deĄnieron tres variables principales:
Variable independiente: Dependencia de herramientas de inteligencia artiĄcial (uso automatizado, dele-
gación de tareas, frecuencia de uso, nivel de autonomía reducida).
Variable dependiente: Profundidad del aprendizaje (procesamiento profundo vs superĄcial, integración
conceptual, pensamiento crítico).
Variable mediadora: Autorregulación académica (planiĄcación, monitoreo, control metacognitivo, autor-
reĆexión).
La recolección de datos se realizó mediante un cuestionario estructurado con escala tipo Likert de cinco
puntos. Las dimensiones evaluadas incluyeron:
Dependencia de IA: delegación cognitiva, automatización de tareas.
Autorregulación: planiĄcación, monitoreo, control metacognitivo.
Profundidad del aprendizaje: procesamiento profundo y superĄcial.
Los instrumentos fueron sometidos a validación de contenido mediante juicio de expertos y a una prueba
piloto. La consistencia interna fue evaluada mediante el coeĄciente Alpha de Cronbach.
B. Procedimiento de recolección de datos
La recolección de datos se realizó mediante un cuestionario digital distribuido a través de plataformas
académicas institucionales y redes universitarias. La participación fue voluntaria y anónima, garantizando la
conĄdencialidad de la información conforme a principios éticos de investigación. Se incluyó un Ąltro inicial
para veriĄcar el uso real de herramientas de IA, evitando sesgos derivados de respuestas de participantes sin
experiencia en el fenómeno estudiado.
C. Análisis estadístico
El análisis estadístico se desarrolló en cuatro etapas:
1. Análisis descriptivo (media y desviación estándar).
2. Análisis de Ąabilidad (Alpha de Cronbach).
3. Correlación de Pearson para evaluar relaciones entre variables.
4. Regresión lineal múltiple para estimar la capacidad predictiva de la dependencia de IA y la autorregu-
lación sobre la profundidad del aprendizaje.
Adicionalmente, se realizó un análisis interpretativo del posible efecto mediador de la autorregulación
académica, considerando la variación en los coeĄcientes de regresión entre modelos.
El estudio respetó los principios de conĄdencialidad, anonimato y consentimiento informado. No se recolec-
taron datos personales sensibles, en concordancia con normativas internacionales sobre investigación educativa
y protección de datos.
Rivera P. Dependencia de herramientas de inteligencia artificial y su impacto en la profundidad del aprendizaje en
estudiantes universitarios
47
ISSN-e: 3078-6983
Período: enero-abril, 2026
Revista Noesis
Vol. 3, Número 6. (pp. 42-52)
IV. RESULTADOS
Se observó que la dependencia de herramientas de inteligencia artiĄcial presentó una media moderada-
mente alta, lo que indica un uso frecuente con tendencias hacia la delegación cognitiva. En contraste, la
autorregulación académica mostró niveles intermedios, sugiriendo que no todos los estudiantes gestionan de
manera estratégica su aprendizaje (Tabla
1). Por su parte, la profundidad del aprendizaje evidenció valores
heterogéneos, con una ligera inclinación hacia enfoques superĄciales. Este patrón inicial sugiere una posi-
ble tensión entre el uso intensivo de IA y la calidad del procesamiento cognitivo, lo cual justiĄca el análisis
inferencial posterior.
Tabla 1. Estadísticos descriptivos.
Variable Media Desv. Están-
dar
Mínimo Máximo
Dependencia de IA 3.78 0.64 2.10 4.90
Autorregulación académica 3.21 0.58 2.00 4.60
Profundidad del aprendizaje 3.05 0.62 1.90 4.50
Fuente: Elaboración propia.
Los instrumentos utilizados mostraron adecuados niveles de consistencia interna. La escala de autorregu-
lación presentó el mayor nivel de Ąabilidad, lo que refuerza su solidez como variable mediadora. La escala de
dependencia de IA también alcanzó valores aceptables, evidenciando coherencia en la medición del constructo
emergente.
Tabla 2. Fiabilidad (Alpha de Cronbach).
Variable Alpha de Cronbach
Dependencia de IA 0.82
Autorregulación 0.88
Profundidad del aprendizaje 0.85
Fuente: Elaboración propia.
El análisis correlacional evidenció una relación negativa signiĄcativa entre la dependencia de IA y la profun-
didad del aprendizaje, lo que sugiere que mayores niveles de dependencia se asocian con menor procesamiento
profundo. Asimismo, la autorregulación académica mostró una relación positiva con la profundidad del apren-
dizaje, indicando que los estudiantes con mayor control metacognitivo tienden a desarrollar aprendizajes más
signiĄcativos. De forma relevante, la autorregulación también presentó una relación negativa con la depen-
dencia de IA, lo que sugiere que actúa como un factor protector frente al uso pasivo de estas herramientas.
Tabla 3. Matriz de correlaciones (Pearson).
Variable 1 2 3
1. Dependencia de IA 1 -0.41** -0.52**
2. Autorregulación -0.41** 1 0.58**
3. Profundidad aprendizaje -0.52** 0.58** 1
Fuente: Elaboración propia.
El modelo de regresión mostró que la dependencia de IA es un predictor negativo signiĄcativo de la
profundidad del aprendizaje. Sin embargo, al incorporar la autorregulación académica en el modelo, se observó
una reducción en el efecto negativo, lo que sugiere un posible efecto mediador. Además, la autorregulación
emergió como el predictor más fuerte del modelo, lo que indica que su inĆuencia supera incluso el impacto
directo de la dependencia tecnológica.
Rivera P. Dependencia de herramientas de inteligencia artificial y su impacto en la profundidad del aprendizaje en
estudiantes universitarios
48
ISSN-e: 3078-6983
Período: enero-abril, 2026
Revista Noesis
Vol. 3, Número 6. (pp. 42-52)
Tabla 4. Regresión múltiple jerárquica.
Modelo Variable β t p R
2
1 Dependencia IA -0.52 -8.21 < 0.001 0.27
2 Dependencia IA -0.31 -4.92 < 0.001
3 Autorregulación 0.49 7.88 < 0.001 0.46
Fuente: Elaboración propia.
El análisis de mediación conĄrmó que la autorregulación académica actúa como mediador parcial en la
relación entre dependencia de IA y profundidad del aprendizaje. Esto implica que el efecto negativo de la
dependencia no es directo en todos los casos, sino que depende del nivel de autorregulación del estudiante.
Los resultados indican que estudiantes con alta autorregulación logran mitigar el impacto negativo de la
dependencia tecnológica, manteniendo niveles más altos de aprendizaje profundo incluso en entornos altamente
digitalizados.
A. Interpretación de los Coeficientes (β)
El modelo propuesto (Fig.
1) evidencia que la dependencia de herramientas de inteligencia artiĄcial ejerce
un efecto negativo directo sobre la profundidad del aprendizaje (β = 0,31), lo que sugie re que un uso
intensivo de estas tecnologías puede reducir el nivel de procesamiento cognitivo, favoreciendo formas de
aprendizaje más superĄciales y una posible externalización del esfuerzo intelectual. Este efecto se ve reforzado
por la relación negativa observada entre la dependencia de IA y la autorregulación académica (β = 0,41),
la más intensa del modelo, lo que indica que el uso excesivo de estas herramientas tiende a debilitar las
capacidades metacognitivas y el control del estudiante sobre su propio proceso de aprendizaje.
En contraste, la autorregulación académica muestra un efecto positivo y signiĄcativo sobre la profundidad
del aprendizaje (β = 0,49), consolidándose como el principal factor protector dentro del modelo. Esto evidencia
que los estudiantes con mayor capacidad de planiĄcación, monitoreo y autorreĆexión logran sostener niveles
más altos de aprendizaje profundo, incluso en contextos mediados por tecnologías digitales.
Asimismo, se identiĄca un efecto mediador relevante, dado que la dependencia de la inteligencia artiĄcial
no solo impacta de forma directa en la profundidad del aprendizaje, sino que también lo hace de manera
indirecta al debilitar la autorregulación académica. Este efecto indirecto (-0,20) ampliĄca el impacto total
de la dependencia tecnológica, alcanzando un valor aproximado de -0,51, lo que revela que, en ausencia de
habilidades autorregulatorias, el uso de estas herramientas puede resultar contraproducente para el desarrollo
del pensamiento crítico y la construcción signiĄcativa del conocimiento.
Fig. 1. Diagrama de rutas estructurales: efectos de la dependencia de IA sobre la autorregulación y la
profundidad del aprendizaje. Se ha utilizado una signiĄcancia estadística de ***P < 0,001.
Rivera P. Dependencia de herramientas de inteligencia artificial y su impacto en la profundidad del aprendizaje en
estudiantes universitarios
49
ISSN-e: 3078-6983
Período: enero-abril, 2026
Revista Noesis
Vol. 3, Número 6. (pp. 42-52)
La Figura 2 evidencia una relación negativa moderada entre la dependencia de herramientas de inteligencia
artiĄcial y la profundidad del aprendizaje. La dispersión observada en los datos sugiere que, si bien existe una
tendencia general, el fenómeno no es lineal ni determinista, lo que indica la inĆuencia de factores individuales
como la autorregulación académica en la forma en que los estudiantes gestionan el uso de estas tecnologías.
Fig. 2. Análisis de la dependencia de herramientas de inteligencia artiĄcial y la profundidad del
aprendizaje.
B. Discusión de resultados
Los resultados obtenidos evidencian que la dependencia de herramientas de inteligenc ia artiĄcial se asocia
de manera negativa con la profundidad del aprendizaje, lo cual resulta consistente con la literatura que advierte
sobre los riesgos de delegación cognitiva en entornos altamente automatizados. En particular, el uso intensivo
de sistemas generativos puede reducir la implicación activa del estudiante en procesos fundamentales como
el análisis, la integración conceptual y la construcción de signiĄc ado, favoreciendo enfoques superĄciales del
aprendizaje [
4], [5], [13]. Este hallazgo se alinea con los planteamientos de la teoría de la carga cognitiva,
según la cual la reducción excesiva del esfuerzo mental puede limitar la formación de estructuras cognitivas
duraderas [
6].
No obstante, los resultados también muestran que esta relación no es determinista, sino que presenta
una variabilidad signiĄcativa, lo que sugiere la intervención de factores individuales. En este sentido, la
autorregulación académica emerge como un elemento clave para comprender las diferencias observadas entre
los estudiantes. Aquellos con mayores niveles de autorregulación tienden a utilizar la inteligencia artiĄcial como
una herramienta de apoyo estratégico, en lugar de un sustituto del esfuerzo cognitivo, lo cual coincide con el
modelo de Zimmerman y con evidencias empíricas recientes en entornos de aprendizaje mediado por IA [
7],
[
11]. De manera similar, Pintrich y De Groot ya habían señalado que el control metacognitivo y la motivación
inĆuyen directamente en la calidad del aprendizaje, lo que refuerza la interpretación de los resultados obtenidos
[
8].
Desde una persp ectiva motivacional, los hallazgos también pueden interpretarse a la luz de la teoría de
la autoeĄcacia de Bandura. Estudiantes con menor percepción de competencia podrían recurrir con mayor
frecuencia a herramientas de inteligencia artiĄcial como mecanismo compensatorio, incrementando así su
dependencia y reduciendo su participación activa en el aprendizaje [
9], [12]. Esta interpretación coincide con
estudios recientes que evidencian distintos perĄles de uso de ChatGPT en educación superior, donde algunos
estudiantes lo emplean para potenciar su aprendizaje, mientras otros lo utilizan como sustituto directo de la
producción académica [
10], [13].
Asimismo, la dispersión observada en los resultados sugiere que el impacto de la inteligencia artiĄcial
no puede analizarse de forma aislada, sino dentro de un ecosistema educativo más amplio. En este sentido,
autores como Kasneci et al. advierten que el efecto de los modelos generativos dep ende en gran medida
Rivera P. Dependencia de herramientas de inteligencia artificial y su impacto en la profundidad del aprendizaje en
estudiantes universitarios
50
ISSN-e: 3078-6983
Período: enero-abril, 2026
Revista Noesis
Vol. 3, Número 6. (pp. 42-52)
del diseño pedagógico y de la mediación docente, más que de la tecnología en misma [13]. De forma
complementaria, Rudolph et al. plantean que la irrupción de herramientas como ChatGPT obliga a replantear
los sistemas de evaluación, ya que los modelos tradicionales basados en la reproducción de información pueden
verse fácilmente sustituidos por respuestas automatizadas [
14].
En este contexto, los resultados también pueden interpretarse desde la teoría de la difusión de innovaciones
de Rogers, según la cual la adopción de nuevas tecnologías no es homogénea y depende de factores como la
percepción de utilidad, facilidad de uso y compatibilidad con prácticas previas [15]. Esto explicaría por qué
algunos estudiantes integran la inteligencia artiĄcial de manera crítica y reĆexiva, mientras otros desarrollan
patrones de dependencia que afectan la profundidad de su aprendizaje.
Por otro lado, la relación positiva entre autorregulación académica y aprendizaje profundo refuerza la
importancia de promover estrategias pedagógicas centradas en el estudiante, donde el uso de la inteligencia
artiĄcial se integre como parte de un proceso de aprendizaje activo y no como un atajo cognitivo. En este
sentido, la literatura sobre retroalimentación formativa destaca que el aprendizaje signiĄcativo se produce
cuando el estudiante participa activamente en la construcción del conocimiento, recibe orientación oportuna
y reĆexiona sobre su propio desempeño [
16], [17].
Los resultados del estudio no solo conĄrman la existencia de una relación signiĄcativa entre dependencia de
inteligencia artiĄcial y profundidad del aprendizaje, sino que también aportan evidencia sobre el papel mediador
de la autorregulación académica como mecanismo explicativo central. Esto implica que el desafío educativo
actual no radica en limitar el uso de estas tecnologías, sino en desarrollar competencias que permitan a los
estudiantes utilizarlas de manera crítica, autónoma y cognitivamente enriquecedora.
CONCLUSIONES
El presente estudio permitió comprender que la incorporación de herramientas de inteligencia artiĄcial en
la educación superior no constituye, por misma, un factor determinante del aprendizaje, sino que su impacto
depende del modo en que los estudiantes interactúan con dichas tecnologías. En este sentido, se evidencia que
la dependencia de estos sistemas no necesariamente implica una mejora en los procesos formativos, sino que,
en ausencia de una adecuada gestión cognitiva, puede favorecer dinámicas de aprendizaje menos profundas y
más orientadas a la resolución inmediata de tareas.
Uno de los principales aportes del estudio radica en la identiĄcación de la autorregulación académica
como un elemento clave en la conĄguración de esta relación. Más que la tecnología en sí, es la capacidad
del estudiante para planiĄcar, monitorear y evaluar su propio aprendizaje lo que determina si el uso de la
inteligencia artiĄcial se convierte en una herramienta de apoyo o en un mecanismo de sustitución del esfuerzo
intelectual. Esto permite replantear el enfoque tradicional centrado en la tecnología, desplazando la atención
hacia las competencias del sujeto que aprende.
Desde una perspectiva educativa, los hallazgos sugieren la necesidad de rediseñar las estrategias pedagóg-
icas en contextos universitarios, incorporando la inteligencia artiĄcial no como un recurso aislado, sino como
parte de un ecosistema de aprendizaje que promueva el pensamiento crítico, la reĆexión y la construcción
activa del conocimiento. En este marco, resulta fundamental fortalecer las habilidades metacognitivas y autor-
regulatorias de los estudiantes, de modo que puedan interactuar con estas tecnologías de manera consciente
y estratégica.
Asimismo, el estudio aporta una visión relevante para el debate contemporáneo sobre la transformación
digital en la educación superior, al evidenciar que el desafío no radica en restringir el uso de herramientas de
inteligencia artiĄcial, sino en orientar su integración hacia prácticas educativas que potencien el aprendizaje
signiĄcativo. Esto implica repensar los modelos de evaluación, las metodologías de enseñanza y el rol del
docente en entornos mediados por tecnologías inteligentes.
Rivera P. Dependencia de herramientas de inteligencia artificial y su impacto en la profundidad del aprendizaje en
estudiantes universitarios
51
ISSN-e: 3078-6983
Período: enero-abril, 2026
Revista Noesis
Vol. 3, Número 6. (pp. 42-52)
En términos generales, la investigación contribuye a ampliar la comprensión del impacto de la inteligencia
artiĄcial en el aprendizaje universitario, destacando la necesidad de abordar este fenómeno desde un enfoque
integral que articule dimensiones tecnológicas, cognitivas y pedagógicas. De este modo, se abre una línea de
reĆexión orientada a construir modelos educativos más adaptativos, críticos y coherentes con las demandas de
la sociedad digital contemporánea.
REFERENCIAS
[1] UNESCO, Guidance for Generative AI in Education and Research. Paris, France: UNESCO, 2023.
[2] ŮŮ, Recommendation on the Ethics of ArtiĄcial Intelligence. Paris, France: UNESCO, 2021.
[3] Q. Vidal, S. Vincent-Lancrin, and H. Yun, ŞEmerging governance of generative AI in education,Ť in OECD
Digital Education Outlook 2023. Paris, France: OECD, 2023.
[4] F. Marton and R. Säljö, ŞOn qualitative differences in learning: IŮoutcome and process,Ť British Journal
of Educational Psychology, vol. 46, no. 1, pp. 4Ű11, 1976, doi: 10.1111/j.2044-8279.1976.tb02980.x.
[5] J. Biggs, ŞEnhancing teaching through constructive alignment,Ť Higher Education, vol. 32, pp. 347Ű364,
1996, doi: 10.1007/BF00138871.
[6] J. Sweller, ŞCognitive load during problem solving: Effects on learning,Ť Cognitive Science, vol. 12, no. 2,
pp. 257Ű285, 1988, doi: 10.1207/s15516709cog1202_4.
[7] B. J. Zimmerman, ŞBecoming a self-regulated learner: An overview,Ť Theory Into Practice, vol. 41, no. 2,
pp. 64Ű70, 2002, doi: 10.1207/S15430421TIP4102_2.
[8] P. R. Pintrich and E. V. De Groot, ŞMotivational and self-regulated learning components of class-
room academic performance,Ť Journal of Educational Psychology, vol. 82, no. 1, pp. 33Ű40, 1990,
doi: 10.1037/0022-0663.82.1.33.
[9] A. Bandura, ŞSelf-efficacy: Toward a unifying theory of behavioral change,Ť Psychological Review, vol. 84,
no. 2, pp. 191Ű215, 1977, doi: 10.1037/0033-295X.84.2.191.
[10] A. Stojanov, Q. Liu, and J. H. L. Koh, ŞUniversity studentsŠ self-reported reliance on ChatGPT for
learning: A latent proĄle analysis,Ť Computers and Education: ArtiĄcial Intelligence, vol. 6, p. 100243,
2024, doi: 10.1016/j.caeai.2024.100243.
[11] H.-Y. Lee, P.-H. Chen, W.-S. Wang, Y.-M. Huang, and T.-T. Wu, ŞEmpowering ChatGPT with guid-
ance mechanism in blended learning: effect of self-regulated learning, higher-order thinking skills, and
knowledge construction,Ť International Journal of Educational Technology in Higher Education, vol. 21,
p. 16, 2024, doi: 10.1186/s41239-024-00447-4.
[12] A. R. Artino, Jr., ŞAcademic self-efficacy: from educational theory to instructional practice,Ť Perspectives
on Medical Education, vol. 1, no. 2, pp. 76Ű85, 2012, doi: 10.1007/s40037-012-0012-5.
[13] S. Kasneci, T. Sessler, P. Küchemann, M. Bannert, D. Dementieva, F. Fischer, and M. Kasneci, ŞChat-
GPT for good? On opportunities and challenges of large language models for education,Ť Learning and
Individual Differences, vol. 103, p. 102274, 2023, doi: 10.1016/j.lindif.2023.102274.
[14] J. Rudolph, S. Tan, and S. Tan, ŞChatGPT: Bullshit spewer or the end of traditional assessments in
higher education?Ť Journal of Applied Learning & Teaching, vol. 6, no. 1, pp. 1Ű22, 2023.
[15] E. M. Rogers, Diffusion of Innovations, 5th ed. New York, NY, USA: Free Press, 2003.
[16] D. Boud and E. Molloy, Feedback in Higher and Professional Education: Understanding it and doing it
well. London, UK: Routledge, 2013.
[17] M. S. Hattie and H. Timperley, ŞThe power of feedback,Ť Review of Educational Research, vol. 77, no. 1,
pp. 81Ű112, 2007, doi: 10.3102/003465430298487.
Rivera P. Dependencia de herramientas de inteligencia artificial y su impacto en la profundidad del aprendizaje en
estudiantes universitarios
52