Mapa web
Youtube
Instagram
Campus UNED

"El chatGPT emula nuestro pensamiento intuitivo pero no nuestro pensamiento racional"

31 de mayo de 2023

El catedrático de la UNED Julio Gonzalo ofreció una interesante conferencia en el Colegio de Economistas de Ourense sobre el chatGPT que, aunque dice no ser fiable sí es una herramienta para expertos en un tema porque les ahorra trabajo y saben qué cosas hay que corregir y cuáles ignorar.

OURENSE, 31 de mayo de 2023. El catedrático de la UNED, Julio Antonio Gonzalo Arroyo, protagonizó esta tarde una conferencia divulgativa en el Colegio de Economistas de Ourense, celebrada en el salón de actos del Centro Cultural Marcos Valcárcel. Abrió la sesión la decana del Colegio, Carmen Sampayo David, quien mencionó la relación que la corporación colegial mantiene con UNED Ourense, fruto de la cual salen frutos como la conferencia del doctor Julio Gonzalo. A continuación, el director de UNED Ourense, doctor Jesús Manuel García Díaz, presentó al ponente, no sin antes destacar la fructífera línea de colaboración que nuestra Universidad mantiene con los economistas ourensanos.

"La Inteligencia Artificial progresa de forma exponencial en los últimos años, y uno de sus éxitos recientes es chatGPT, un cerebro artificial entrenado para dialogar con humanos y proporcionarles todo tipo de información útil y pertinente... aunque no siempre veraz. ¿Cómo ha adquirido chatGPT sus habilidades lingüísticas? ¿De qué conocimiento del mundo dispone? ¿Por qué es capaz de proporcionar información útil y creativa en ocasiones, y sin embargo falla en cosas tan simples como aritmética básica, y es capaz de mentir con convicción absoluta?", se pregunta el conferenciante. Y la explicación de ello radica en que "chatGPT es un sistema que emula exclusivamente nuestro pensamiento intuitivo, pero no nuestro pensamiento racional. Cuando usamos nuestro pensamiento racional, razonamos sobre datos y conocimiento explícito (por ejemplo, cuando hacemos la declaración de la renta). Cuando usamos nuestra intuición, tomamos decisiones basadas en nuestra experiencia, a las que no podemos, en general, dar una explicación racional. La inteligencia humana mezcla las dos vertientes, y nuestro éxito depende, en muchas ocasiones, de saber cuándo debe predominar lo racional y cuándo lo intuitivo", asegura este experto investigador de la UNED.  

Julio Gonzalo, en plena exposición y a su lado, la decana del Colegio de Economistas de Ourense, Carmen Sampayo, tomando buena nota de las palabras del conferenciante. 

Y dado que chatGPT está basado casi exclusivamente en nuestro pensamiento intuitivo, "y por eso no maneja datos fiables ni razona explícitamente sobre ellos: habla de oídas". Podemos, dice el doctor Julio Gonzalo, "llamarle un supercuñado. O, mejor aún, un cuñado estocástico, ya que lo que nos dice está dirigido por probabilidades: con cada palabra busca maximizar la probabilidad de que sea natural en el contexto de la conversación y de que nos dé información aparentemente útil, aunque no sea veraz".

Señaló el ponente que la investigación en Inteligencia Artificial se centró, en sus orígenes, en emular nuestro pensamiento racional: se trataba de proporcionar al ordenador conocimiento, por un lado, y capacidad de razonar, por otro. "Aunque se lograron éxitos parciales en problemas muy acotados (como, por ejemplo, la traducción de informes meteorológicos), fue imposible escalar este tipo de enfoque a problemas más generales. Entonces se pasó a un nuevo paradigma, el aprendizaje máquina (Machine Learning)".

En ese nuevo paradigma, "el programador elige cómo representar los datos de entrada: por ejemplo, si se trata de conceder préstamos, cada solicitante puede representarse por su edad, nivel de ingresos, tipo de trabajo, barrio en el que vive, etc. La forma en la que cada rasgo contribuye a la decisión final la aprende el algoritmo por sí solo, a partir de muchos ejemplos anteriores para los que los expertos ya han tomado una decisión".

El siguiente paso -la idea crucial que ha llevado a chatGPT- se dio en los años 2011/2012, "cuando se dejó a los algoritmos también la tarea de decidir cuál era la forma óptima de representar los datos de entrada. En particular, se entrenaron redes neuronales profundas -grandes fórmulas que imitan las redes de neuronas con sus conexiones sinápticas- para aprender a representar imágenes, texto, o ambas cosas simultáneamente. Estos cerebros artificiales resolvían mejor las tareas relacionadas con el procesamiento del lenguaje y con la visión artificial a través de esas representaciones optimizadas y, al mismo tiempo, completamente opacas. Además, a partir de cierto tamaño, esas redes comenzaron a ser capaces de aprender a resolver tareas con un puñado de ejemplos o incluso, simplemente, con una descripción de la tarea (mucho más parecido a cómo aprendemos los humanos)", expuso el ponente.

Julio Gonzalo explicó que chatGPT introduce un paso adicional, "en principio sencillo pero de consecuencias enormes, sobre los cerebros artificiales capaces de entender el lenguaje. Ese paso consiste en entrenarles para dialogar con los humanos, de forma que contesten con información pertinente y útil. Se comienza con profesores humanos, que les dicen qué responder ante determinadas preguntas. En una segunda fase, los profesores sólo muestran sus preferencias entre unas respuestas y otras. Y, en una tercera fase, la máquina aprende un modelo del profesor y sigue aprendiendo preguntando a ese modelo, de forma que puede seguir aprendiendo a mucha más velocidad sin intervención humana".

Resultado     

El resultado es "un cerebro artificial que no almacena de forma explícita conocimiento, ni sabe tampoco razonar como los humanos. Habla de forma intuitiva a partir de la inmensidad de textos que ha leído (y asimilado sólo intuitivamente) y de la fase de aprendizaje en la que ha descubierto lo que los humanos quieren oír. Por eso resulta muy natural y aparenta un conocimiento muy vasto, pero al mismo tiempo puede cometer errores infantiles e incluso mentir con aplomo. Por eso chatGPT no es fiable", dijo el investigador de la UNED al tiempo que añadió: "¿Quiere esto decir que no es útil? En absoluto: es una herramienta de productividad fantástica cuando le pedimos ayuda sobre temas de los que somos expertos, porque nos ahorra trabajo y sabemos qué cosas hay que corregir o ignorar. Y también puede ser una ayuda para tareas creativas, en las que la información factual no es relevante. Y se puede utilizar también para fomentar el pensamiento crítico, en vez de dejar que nos quite la capacidad de pensar.

Al final de la conferencia se estableció un interesante turno de preguntas de espectadores que se muestran cautos con el chatGPT y de otros que argumentaban que el problema no es la máquina sino que está en quienes la usan. El ponente destacó que chatGPT es "extremadamente sensible a como le formulamos una pregunta. Como no es racional, responde sin pensar". Con esta tecnología, señaló Julio Gonzalo, las cosas "van a ser infinitamente mejores e infinitamente peores". 

Julio Gonzalo Arroyo es doctor por la Universidad Autónoma de Madrid con la tesis Reglas genéricas objetos, reglas y excepciones en el procesamiento del lenguaje natural 1995. Dirigida por la doctora Pilar Rodríguez Marín. Arroyo es catedrático del área de Lenguajes y Sistemas Informáticos, vicerrector adjunto de Investigación, Transferencia del Conocimiento y Divulgación Científica de la UNED, e investigador principal del grupo UNED de investigación en Procesamiento del Lenguaje Natural y Recuperación de Información. Las publicaciones de Julio Gonzalo han sido referenciadas en más de 5.000 ocasiones (según Google Scholar) y en 2012 recibió un Google Faculty Research Award (conjuntamente con Stefano Mizzaro y Enrique Amigó) por su investigación en métricas de evaluación para sistemas de Inteligencia Artificial. Es uno de los tres General Chair del congreso SIGIR 2022, el congreso mundial de investigación en tecnologías de búsqueda, que ese año se celebró por primera vez en España.

En el ámbito de la divulgación, es miembro del equipo del podcast "Esto es lo que AI" sobre la actualidad de la Inteligencia Artificial y su impacto en la sociedad.

 

 

 

UNED Ourense

Comunicación 

Carretera de Vigo Torres do Pino  s/n Baixo 32001 Ourense - . Tel. 988371444 info@ourense.uned.es