En este momento estás viendo La Paradoja de la Inteligencia Artificial: ¿Nos está haciendo menos inteligentes? Un análisis del estudio del MIT sobre ChatGPT

La Paradoja de la Inteligencia Artificial: ¿Nos está haciendo menos inteligentes? Un análisis del estudio del MIT sobre ChatGPT

En la era digital, la inteligencia artificial (IA) ha surgido como una entidad transformadora, atravesando casi todos los aspectos de nuestra vida cotidiana. Desde la automatización de tareas complejas hasta la personalización de nuestras experiencias en línea, su presencia es indiscutible. En el centro de esta revolución se encuentra ChatGPT, un modelo de lenguaje avanzado que ha capturado la imaginación de casi todo el mundo por su capacidad para generar texto coherente y contextualizado. Millones de estudiantes y profesionales han adoptado esta herramienta como un asistente de escritura, un tutor personal y una fuente inagotable de información. Sin embargo, una pregunta fundamental comienza a resonar con cada vez con más fuerza en los ámbitos académicos: ¿el uso constante de estas poderosas herramientas está, paradójicamente, erosionando una de las habilidades humanas más cruciales: el pensamiento crítico? ¿o acaso no has leído y oído que muchas personas ni siquiera se toman el trabajo de chequear el resultado que le entrega la IA?

El Instituto de Tecnología de Massachusetts (MIT) ha hecho un estudio reciente titulado «ChatGPT May Be Eroding Critical Thinking Skills» (ChatGPT podría estar erosionando las habilidades de pensamiento crítico), el cual no se limita a una mera especulación, sino que presenta evidencia empírica que sugiere que la dependencia de la IA para tareas cognitivas podría estar atrofiando nuestra capacidad para pensar de manera profunda, analítica y original. Digamos que es una «alerta temprana» que deberíamos por lo menos tenerla muy en cuenta.-

El experimento del MIT: Una ventana al cerebro del usuario de IA

Para llegar a sus conclusiones, los investigadores del MIT Media Lab diseñaron un experimento muy detallado. Reunieron a 54 participantes y les asignaron la tarea de redactar ensayos de nivel SAT*, un desafío que exige no solo una buena redacción, sino también la capacidad de estructurar argumentos y analizar información.

*El SAT (Scholastic Assessment Test) es un examen estandarizado ampliamente utilizado para la admisión a las universidades en Estados Unidos. Mide las habilidades de los estudiantes en áreas consideradas fundamentales para el éxito académico: lectura, redacción y matemáticas.

Los sujetos fueron divididos en tres grupos distintos, cada uno con una herramienta de apoyo diferente. El primer grupo utilizó ChatGPT para asistir en su escritura. El segundo grupo tuvo acceso a Google Search, la herramienta de investigación digital por excelencia durante las últimas dos décadas. Finalmente, un tercer grupo, el de control, no utilizó ninguna ayuda externa, dependiendo únicamente de su propio intelecto.

Mientras los participantes trabajaban, los científicos monitorearon su actividad cerebral utilizando tecnología de neuroimagen. Los resultados fueron tan claros como alarmantes. El grupo que utilizó ChatGPT mostró una disminución significativa en el compromiso cerebral en comparación con los otros dos grupos. En términos neurológicos, lingüísticos y de comportamiento, su rendimiento fue inferior. El cerebro de estos usuarios, en esencia, estaba menos «encendido». Parecía que, al delegar el esfuerzo cognitivo a la IA, el cerebro entraba en un estado de pasividad, limitándose a transcribir o adaptar ligeramente las respuestas proporcionadas por el sistema.

Aún más preocupante fue la observación del comportamiento de los usuarios a lo largo del tiempo. Los investigadores notaron que, con el uso repetido, los participantes del grupo de ChatGPT se volvían progresivamente «más perezosos». Su método de trabajo tendía a simplificarse en un ciclo de copiar y pegar, abandonando el esfuerzo de reformular, personalizar o, lo más importante, verificar la información generada por la IA. Este hallazgo sugiere un efecto adictivo a la facilidad, donde la comodidad de obtener una respuesta instantánea supera el valor del proceso de aprendizaje y descubrimiento.

En 2008 Wall-E lanzó muchas predicciones sobre nuestro futuro. Ha acertado en la mayoría de ellas

Escena de los «gordos» en la película Wall-E de Pixar.

El tema central: La erosión del pensamiento crítico

El pensamiento crítico es el proceso mental que nos permite analizar información de manera objetiva, identificar sesgos, evaluar la validez de los argumentos y sintetizar diferentes fuentes para formar un juicio propio y razonado. Es la habilidad que nos distingue de las máquinas: la capacidad de dudar, cuestionar y crear conocimiento nuevo. El estudio del MIT sugiere que la dependencia de herramientas como ChatGPT puede cortocircuitar este proceso vital.

Cuando un estudiante se enfrenta a una pregunta compleja, el camino tradicional implica investigar, leer diversas fuentes, contrastar puntos de vista, organizar ideas y, finalmente, articular una respuesta original. Este esfuerzo, aunque arduo, fortalece las «neuronas del pensamiento crítico». Por el contrario, al recurrir a un modelo de lenguaje, el usuario recibe un producto final, pulido y bien estructurado, pero carente del andamiaje intelectual que lo sostiene. Se obtiene la respuesta, pero se pierde el invaluable proceso de llegar a ella. Es como si, para aprender a construir una casa, nos limitáramos a recibirla ya construida, sin nunca haber aprendido sobre cimientos, estructuras o materiales.

Esto me hizo acordar a una instrucción cuyo objetivo era básicamente «efectuar el análisis crítico» de un requerimiento que se había recibido por parte del área de negocio, utilizando un GPT personalizado en cuya base de conocimiento había suficiente documentación que permitía realizar dicha tarea además de brindarle ciertos parámetros y restricciones que debía tener en cuenta para el proceso. Esta instrucción aceleraba el procedimiento y reducía el nivel de esfuerzo habitual.

Conceptos clave y sus implicaciones

  1. Compromiso neuronal reducido: El cerebro, como cualquier músculo, se fortalece con el ejercicio. La » pereza» neuronal observada en el estudio implica que, al externalizar el pensamiento, no estamos ejercitando las áreas cerebrales responsables del razonamiento complejo, la resolución de problemas y la creatividad. A largo plazo, esto podría conducir a una atrofia de estas capacidades a nivel individual y colectivo. Punto para reflexionar: A modo de ejercicio, se pueden rescatar de este punto varios aspectos a incluir en una instrucción para refinar el proceso y posterior resultado que nos provea la ejecución del «prompt».
  2. Rendimiento lingüístico y conductual inferior: Aunque la IA puede generar un lenguaje impecable, el usuario que simplemente copia y pega no está desarrollando su propia voz ni su habilidad para argumentar. La dependencia inhibe la expansión del vocabulario, la comprensión de la sintaxis compleja y la capacidad de adaptar el tono y el estilo a diferentes audiencias. Punto para reflexionar: Siempre es necesario tomarse un tiempo para leer, modificar, agregar texto al resultado y así dejar nuestra propia huella.
  3. El ciclo de la pereza cognitiva: La facilidad de uso de la IA crea un bucle de retroalimentación negativa. Cuanto más se usa, menos se siente la necesidad de pensar por uno mismo. Esto es particularmente peligroso para los usuarios más jóvenes, cuyos cerebros y hábitos intelectuales están en plena formación. Punto para reflexionar: Muchas veces es recomendable buscar asociaciones e identificar relaciones.

Hacia un nuevo paradigma: La IA como herramienta, no como oráculo

La solución no es prohibir la tecnología. La inteligencia artificial es una herramienta de un poder que aún seguimos desconociendo a decir verdad, y su potencial para el bien (y para el mal) es inmenso. El desafío radica en redefinir nuestra relación con ella, pasando de ser consumidores pasivos de sus resultados a ser directores activos de su poder.

Para ello, el sistema educativo tiene un papel fundamental. Es imperativo desarrollar una nueva alfabetización digital que no solo enseñe a usar la herramienta, sino que también inculque un escepticismo saludable hacia ella. De aquí a temas como la gestión de la «ética». Los estudiantes deben aprender que la Inteligencia Artificial Generativa como el ChatGPT no «sabe» ni «piensa», sino que es un sofisticado modelo de predicción de palabras. Reitero, predice. Deben ser entrenados para verificar cada dato, cuestionar cada afirmación y, sobre todo, usar la IA como un punto de partida para su propia investigación, no como el destino final.

El enfoque debe ir del producto final (el ensayo perfecto) al proceso de aprendizaje: los borradores, los debates, los errores y las correcciones.

En conclusión, el estudio del MIT no condena a la inteligencia artificial, sino que es una llamada de atención temprana para que como seres humanos lo tengamos presente. Nos advierte que la comodidad tiene un costo cognitivo. Si no somos cuidadosos, corremos el riesgo de criar una generación de pensadores superficiales, excelentes en obtener respuestas, pero deficientes en la capacidad de formular las preguntas importantes. El futuro del aprendizaje consiste en aprender a fusionar ambas inteligencias (la humana y la artificial) para potenciar una a la otra. Debemos esforzarnos por utilizar la IA no para que piense por nosotros, sino para que nos ayude a pensar mejor, más profunda y más críticamente que nunca.

Fuente de inspiración: «ChatGPT May Be Eroding Critical Thinking Skills, According to a New MIT Study» e imagen de https://www.xataka.com/magnet/2008-wall-e-lanzo-muchas-predicciones-nuestro-futuro-ha-acertado-mayoria-ellas-1

Gus Terrera

Apasionado por el agile testing y la ia.