top of page

Inteligencia artificial, conciencia humana y aprendizaje profundo.

Parte I. Procesar información no es lo mismo que comprender.


La inteligencia artificial puede manipular símbolos con enorme eficacia, pero carece de experiencia. ¿Qué nos dice esto sobre qué significa comprender? ¿Qué tipo de “pensamiento” tiene la Inteligencia artificial? ¿En qué se parece a nuestro propio pensamiento? ¿Qué significa que pueda aprender? ¿Es inteligente en sentido humano? ¿Qué caracteriza nuestra capacidad de comprender la realidad y a nosotros mismos? ¿Qué quiere decir, en el fondo, comprender? ¿Y qué es la conciencia que hace posible esa comprensión?


La cabeza de un niño a trasluz en un contexto de rayos luminosos

La Inteligencia artificial hace cosas sorprendentes. Busca y organiza información en segundos. Escribe textos bien redactados. Resuelve problemas, hace cálculos, propone ideas y un sinfín de otras actividades. Puede leer el Quijote por nosotros y darnos un resumen. Puede crear programas de computación y componer música. Puede escribir blogs y noticias, y puede también resumir los blogs y noticias escritos por otras IA. Tiene además esa magia de hacernos creer que estamos interactuando con una persona. Al mismo tiempo, muchas veces es bastante torpe y comete errores. Nunca se puede confiar del todo en lo que responde. Tiene una liviandad irritante cada vez que uno detecta un error y responde, por ejemplo, que lo que te dio como cita en realidad no es textual, sino que es algo inventado. Pero, sin lugar a dudas, es un buen asistente, si uno le formula bien las consignas, las va afinando a partir de sus respuestas y chequea siempre lo que dice.


En un posteo anterior analicé el problema que esto nos genera a los docentes, ya que puede hacer todo tipo de trabajos por los alumnos, y lo que eso debería hacernos pensar acerca de las consignas de trabajo que damos a los estudiantes. Y propuse un “test de Turing” a la inversa: una tarea de evaluación no tiene mucho valor como prueba de aprendizaje si la IA la puede responder por sí sola, sin intervención humana. Las tareas de aprendizaje y evaluación tienen sentido profundamente educativo cuando requieren que el estudiante se involucre personalmente en la respuesta. En esta serie de dos posteos me propongo analizar las relaciones entre Inteligencia artificial, conciencia humana y aprendizaje profundo


Acaba de publicarse en Grupo Magro el libro compilado por Mariana Ferrarelli titulado "Inteligencia Artificial en la educación y el trabajo", que contiene una amplia e interesante variedad de enfoques, reflexiones y experiencias compartidas por colegas de Argentina, España e Italia. Contribuí con el capítulo 9 titulado "Inteligencia artificial y aprendizaje profundo: el enigma de la conciencia humana", en el que hago una reflexión sobre qué tipo de inteligencia tiene la IA y qué relaciones hay entre Inteligencia artificial, conciencia y aprendizaje profundo. Pueden ver la presentación del libro en este enlace.


Es bastante común establecer una analogía entre cerebro y hardware por un lado, conciencia y software por el otro. Según esta analogía la conciencia sería similar a un programa de computadora y, finalmente, a un conjunto de algoritmos. El cerebro es el equivalente a la computadora. Desde esta perspectiva la IA sería una forma de conciencia, mucho más poderosa que la humana, debido a su capacidad de procesamiento de información.


Un cerebro humano y un cerebro conformado por chips, con un signo de igual y otro de interrogación entre ambas imágenes.

Sin embargo, la analogía no es correcta porque el cerebro y la computadora -o el celular- son soportes materiales radicalmente distintos. En los seres humanos no es posible separar hardware y software. El cerebro humano y las computadoras constituyen dos formas radicalmente distintas de sostener el pensamiento. El cerebro es un sistema biológico compuesto por miles de millones de neuronas interconectadas mediante sinapsis dinámicas, capaces de reorganizarse continuamente en función de la experiencia: no tiene una estructura fija, como el hardware de la computadora, sino que está vivo y es flexible y adaptable. Las computadoras se basan en circuitos electrónicos formados por miles de millones de transistores de silicio que operan como interruptores binarios, organizados en arquitecturas diseñadas de antemano y relativamente rígidas: su capacidad de aprendizaje depende de programas y datos, no de una transformación física espontánea de su estructura.


El cerebro es analógico -las neuronas tienen grados de activación a través de señales químicas y eléctricas-, mientras que el hardware de las computadoras es digital -trabajan con valores discretos, 0 y 1. Esto le da al cerebro muchas más flexibilidad. Al mismo tiempo, el cerebro funciona masivamente en "paralelo", con millones de neuronas operando al mismo tiempo procesando información en forma distribuida. Los procesadores de silicio, si bien ejecutan ciertas tareas en paralelo, funcionan de manera mucho más secuencial, programada y rígida. Esto hace que sean mucho más frágiles ante un pequeño error. El cerebro, en cambio, si bien es menos preciso, es mucho más robusto y puede funcionar bien aún cuando cometa errores. El cerebro es un sistema continuo, vivo y adaptativo. El hardware es un sistema discreto, formal y programado.


En el cerebro los símbolos están ligados a experiencias sensoriales, percepciones y emociones. Hay un significado vivido. En el hardware los símbolos son manipulados formalmente, sin experiencia sensorial directa. Puede decirse que hay sintaxis sin experiencia.


Nuestro cerebro interpreta la realidad integrando señales sensoriales y predicciones internas, construyendo una percepción subjetiva. Los colores, por ejemplo, no existen como tales en el mundo externo: son creaciones del cerebro a partir de cómo la luz reflejada en los objetos estimula nuestras retinas. Continuamente el cerebro formula hipótesis sobre el mundo y las corrige con la información sensorial entrante. En este proceso, las conexiones sinápticas se refuerzan y reorganizan: las neuronas que se activan juntas tienden a “cablearse” juntas, formando redes más sólidas y eficientes. Comprender, desde este punto de vista, es literalmente reconfigurar el cerebro, creando puentes entre lo nuevo y lo ya existente, de manera que podamos evocar y aplicar ese conocimiento en contextos diferentes. El cerebro se transforma continuamente a sí mismo al pensar.


La conciencia —la capacidad de sentir y experimentar— es un fenómeno extraordinario, con algo de mágico. Procesos electroquímicos en el cerebro generan experiencias subjetivas que integran percepciones, información y emociones, dotándonos de un “mundo interior”. La conciencia es esta capacidad de tener experiencias internas y usarlas para interactuar con el mundo. Es la capacidad de un organismo vivo para percibir y procesar información sobre sí mismo y su entorno, y construir experiencias subjetivas.


Un joven de espaldas mirando hacia un abanico de rayos de luces de colores

Un niño de dos años tiene un conocimiento implícito sobre la existencia de la gravedad. Aunque casi no habla, “sabe” que las cosas se caen. Aprende esto desde antes del primer año de vida, soltando objetos y mirando como caen, rebotan, hacen ruido (y a veces, se rompen! …para dolor de cabeza de padres y abuelos). Este es un conocimiento práctico y sensorial, basado en experiencias. Obviamente, no está basado en conocimientos conceptuales.


La IA no tiene este tipo de conocimiento. Puede leer miles de textos sobre la ley de la gravedad y sus implicancias, escribir largos textos al respecto y resolver problemas utilizando ecuaciones. Pero no tiene la experiencia de un objeto cayendo. Por eso falla en las tareas que requieren contrastar el conocimiento con experiencias reales. Puede buscar y darme recetas de cocina. Pero cuando le pides algo nuevo, suele fallar. Por ejemplo, si le pido una receta con dos manzanas y cuatro yemas de huevo, me va a proporcionar algunas interesantes, que encuentra en la web y han sido elaboradas por seres humanos. Pero también puede inventar otras que tienen resultados desastrosos, porque combinan textos de distintas recetas (por ejemplo, cocinar las manzanas en cubos en una sartén para hacer un puré, hacer un sambayón con las yemas, y luego mezclar todo -lo hice y el resultado fue nefasto-). El problema es, sencillamente, que la IA no puede cocinar la receta y ver qué pasa. La Inteligencia artificial tiene conocimiento abstracto sin experiencia. En el mejor de los casos puede basarse en experiencias registradas por seres humanos.


La IA carece de experiencia subjetiva y de vivencias que doten de sentido a las palabras que utiliza. Lo que hace es operar con símbolos abstractos. El contexto para un texto es otro texto, no una experiencia vivida. Puede producir frases que suenan empáticas o informadas, pero no sabe de qué habla: solo predice lo que viene después en función de lo que ha “visto” antes en forma de texto escrito. No puede experimentar el mundo ni generar significados personales. La IA tiene habilidades sin comprensión, lenguaje sin experiencia y conocimiento sin vivencia. Más allá de las apariencias —y de los recursos lingüísticos que nos hacen creer que interactuamos con una persona—, la inteligencia artificial no comprende en el sentido humano del término. Funciona a través de algoritmos matemáticos que le permiten predecir -adivinar- cuál sería la palabra más probable que debería aparecer a continuación en una oración. De esta manera es capaz de producir textos coherentes aunque no medie en ello comprensión alguna.


Lo que sí tiene la IA, muy por encima de las capacidades humanas, es fuerza de procesamiento. Durante su entrenamiento, un modelo de IA analiza millones de textos y aprende patrones, estructuras y relaciones entre palabras, frases o elementos visuales. No entiende su significado, pero identifica cómo suelen organizarse. Por ejemplo, si ha sido entrenado con millones de frases, podrá inferir que después de “¿Cómo estás…” suele aparecer “hoy?” o “amigo?”. Una vez entrenado, puede generar contenido nuevo imitando esos patrones, lo que le permite construir respuestas fluidas y verosímiles


Para responder una pregunta simple, que se responde con un párrafo de texto, la IA lee las palabras, su contexto y posibles matices (por ejemplo, si le están preguntando algo literal, técnico o irónico); luego busca información en su memoria o en internet, accediendo a patrones y conocimientos ya entrenados; y genera una respuesta elaborando el texto final palabra por palabra, calculando la probabilidad de cada término y ajustando el tono, claridad y estilo. Este proceso se realiza en milésimas de segundo en forma iterativa, evaluando múltiples posibilidades para cada palabra. Para generar una respuesta breve de 300 palabras el proceso interno se repite unas 500 veces, cada vez con todo el contexto acumulado hasta ese momento. Para escribir un párrafo, una aplicación de IA procesa un volumen de información comparable a varios millones de libros, varias veces la biblioteca de Alejandría.


Una ilustración de microchips dentro de una superficie con forma de cerebro

La IA, por tanto, puede entenderse como una forma extremadamente desarrollada de la capacidad humana de relacionar símbolos y operar con abstracciones, aunque desprovista de la comprensión que da sentido a esos símbolos. Procesar información no es lo mismo que comprender.


La inteligencia artificial supera infinitamente nuestra capacidad de procesar información. Pero en ese mismo gesto deja en evidencia algo fundamental: comprender no es lo mismo que calcular, ni que predecir, ni que producir respuestas plausibles. Sin embargo, buena parte de nuestras prácticas educativas parecen haber olvidado esta diferencia. En un mundo donde las máquinas pueden responder casi cualquier consigna, es necesario volver a preguntarnos: ¿qué significa, verdaderamente, aprender?


En el próximo posteo analizaré la relación entre la Inteligencia artificial y el aprendizaje profundo.







 
 
 

Comentarios


©2022 por Pedro Ravela. Creada con Wix.com

bottom of page