The Reliance Negotiation Framework: A Dynamic Process Model of Student LLM Engagement in Academic Writing

Este artículo presenta el Marco de Negociación de la Dependencia (RNF), un modelo dinámico desarrollado a partir de un estudio mixto con 382 estudiantes que conceptualiza el uso de modelos de lenguaje grandes en la escritura académica no como una competencia estática, sino como un proceso continuo de negociación entre beneficios, riesgos, compromisos éticos y demandas situacionales.

Autores originales: Shahin Hossain

Publicado 2026-04-21✓ Author reviewed
📖 5 min de lectura🧠 Análisis profundo

Esta es una explicación generada por IA del artículo a continuación. No ha sido escrita por los autores. Para mayor precisión técnica, consulte el artículo original. Leer descargo de responsabilidad completo

Each language version is independently generated for its own context, not a direct translation.

Imagina que escribir un trabajo escolar con Inteligencia Artificial (IA) no es como encender o apagar un interruptor de luz (donde o la usas o no la usas). En realidad, es más como cocinar una cena para invitados.

Cada vez que un estudiante se sienta a escribir, no toma una decisión fija para siempre. En su lugar, hace una negociación constante en su propia cabeza, como un chef que decide cuánto sal, cuánto tiempo y qué ingredientes usar, dependiendo de si tiene hambre, si tiene prisa, si le gusta cocinar o si tiene miedo de que la comida salga mal.

Este artículo presenta el "Marco de Negociación de la Dependencia" (RNF). Es una nueva forma de entender cómo los estudiantes usan la IA, explicando por qué a veces la usan mucho, a veces poco, y a veces nada en absoluto.

Aquí tienes la explicación sencilla, usando analogías:

1. El Problema: No es un "Interruptor", es un "Tablero de Control"

Antes, los educadores pensaban que los estudiantes eran de un solo tipo: o eran "dependientes" (usan la IA para todo) o "éticos" (nunca la tocan).

  • La realidad: Un mismo estudiante puede ser un "chef experto" en una clase de historia (usando la IA para buscar ideas) y un "chef que no toca el fuego" en una clase de matemáticas (porque sabe que la IA se equivoca en los números).
  • La analogía: Imagina que tienes un coche con un tablero de control. No conduces igual en una autopista vacía que en un camino de tierra lleno de baches. El estudiante cambia su "conducción" (uso de IA) según el "terreno" (la tarea, el profesor, la fecha límite).

2. Los 4 Ingredientes de la Negociación

Cada vez que el estudiante decide usar (o no) la IA, su cerebro pesa cuatro factores simultáneamente:

  1. Los Beneficios (El "¡Qué fácil!"): ¿Me ahorrará tiempo? ¿Me dará ideas geniales? ¿Me ayudará a terminar antes?
    • Analogía: Es como ver un atajo en el mapa que promete ahorrarte 20 minutos.
  2. Los Riesgos (El "¡Cuidado!"): ¿Me atraparán? ¿La información será falsa? ¿Me volveré perezoso y no aprenderé nada?
    • Analogía: Es como ver una señal de "Peligro de Ataque de Osos" o "Camino Deslizante".
  3. Los Valores Éticos (La "Brújula Interior"): ¿Siento que está mal hacer esto? ¿Es mi deber personal no usarla?
    • Analogía: Es la voz de tu conciencia que te dice: "No hagas trampa, incluso si nadie te ve".
  4. Las Demandas de la Situación (El "Entorno"): ¿Tengo 10 minutos para entregarlo? ¿El profesor prohíbe la IA? ¿Es un examen final o una tarea de práctica?
    • Analogía: Es el clima. Si llueve torrencialmente (mucha presión de tiempo), el atajo se vuelve más atractivo, aunque sea peligroso.

La Negociación: El estudiante mezcla estos cuatro ingredientes. Si la fecha límite es mañana (Situación alta) y el beneficio es ahorrar tiempo (Beneficio alto), pero el riesgo de ser atrapado es bajo, el estudiante probablemente usará la IA. Si el riesgo es alto, quizás no.

3. El "Grupo de los 13%": Los que no negocian

El estudio descubrió algo fascinante: el 13% de los estudiantes no negocian.

  • La analogía: Imagina que la mayoría de la gente está en un mercado regateando precios (negociando). Pero hay un grupo que tiene una regla fija: "No compro nada en este mercado, punto".
  • Estos estudiantes tienen un compromiso ético tan fuerte (como una ley interna) que la negociación ni siquiera empieza. No importa si tienen prisa o si la IA es útil; simplemente no la usan. El modelo antiguo los confundía con estudiantes que "no sabían usar la tecnología", pero en realidad, son estudiantes con una postura ética muy firme.

4. El Ciclo de Aprendizaje (El "Efecto Rebote")

El marco explica por qué usar IA a veces nos hace peores estudiantes.

  • El ciclo: Si usas la IA para hacer un trabajo rápido y te va bien (beneficio), tu cerebro dice: "¡Genial! Hagámoslo otra vez". Pero si no revisas lo que hizo la IA, pierdes la práctica de pensar tú mismo.
  • La analogía: Es como usar un andador para caminar. Al principio te ayuda a moverte rápido (beneficio). Pero si lo usas siempre, tus músculos se debilitan (riesgo de atrofia). Al final, no puedes caminar sin él, aunque creas que eres más rápido.
  • El aprendizaje: Los estudiantes que usan la IA pero luego se dan cuenta de que no aprendieron nada (como "Destiny" en el estudio), ajustan su negociación. Empiezan a usarla menos o de forma más inteligente. Es un proceso de aprendizaje, no un estado fijo.

5. ¿Por qué importa esto? (La Lección para las Escuelas)

El artículo dice que las escuelas no deben tratar esto como un problema de "policía" (detectar trampas).

  • El error actual: Poner cámaras y detectores de IA solo afecta a los que tienen miedo de ser atrapados (el grupo que negocia por miedo). Si quitas la cámara, vuelven a usar la IA.
  • La solución propuesta: En lugar de solo vigilar, las escuelas deben enseñar a los estudiantes a negociar mejor.
    • Enseñarles a detectar cuándo la IA miente (alfabetización).
    • Ayudarles a entender cuándo usarla como herramienta y cuándo no (ética).
    • Especialmente en escuelas con estudiantes que vienen de contextos desfavorecidos (como el estudio en una universidad de EE. UU.), la IA a veces es un "salvavidas" porque les falta preparación previa. Prohibirla sin darles mejores herramientas es injusto.

En resumen

Este paper nos dice que dejar de usar la IA no es una decisión que tomas una vez y olvidas. Es una conversación diaria que tienes contigo mismo, con tus valores, con tu tiempo y con tu profesor.

La solución no es prohibir la conversación, sino enseñar a los estudiantes a tener una conversación más sabia, honesta y estratégica, para que la IA sea un copiloto que los ayude a llegar a su destino, no un conductor que se los lleve a un lugar donde no saben cómo volver.

¿Ahogado en artículos de tu campo?

Recibe resúmenes diarios de los artículos más novedosos que coincidan con tus palabras clave de investigación — con resúmenes técnicos, en tu idioma.

Probar Digest →