Mapa web
Youtube
Instagram
Campus UNED

"O chatGPT emula o noso pensamento intuitivo mais non o noso pensamento racional"

31 de mayo de 2023

O catedrático da UNED Julio Gonzalo ofreceu unha interesante conferencia no Colexio de Economistas de Ourense sobre o chatGPT que, aída que di non ser fiable si é unha ferramenta para expertos nun tema porque afórralles traballo e saben que cousas hai que corrixir e cales iñorar.

OURENSE, 31 de maio de 2023. O catedrático da UNED, Julio Antonio Gonzalo Arroyo, protagonizou esta tarde unha conferencia divulgativa no Colexio de Economistas de Ourense, celebrada no salón de actos do Centro Cultural Marcos Valcárcel. Abriu a sesión a decana do Colexio, Carmen Sampayo David, quen mencionou a relación que a corporación colexial mantén con UNED Ourense, froito da cal saen froitos como a conferencia do doutor Julio Gonzalo. A continuación, o director de UNED Ourense, doutor Jesús Manuel García Díaz, presentou ao relator non sen antes salientar a froitífera liña de colaboración que a nosa Universidade mantén cos economistas ourensáns.

"A Intelixencia Artificial progresa de forma exponencial nos últimos anos, e un dos seus éxitos recentes é chatGPT, un cerebro artificial adestrado para dialogar con humanos e proporcionarlles todo tipo de información útil e pertinente... aínda que non sempre veraz. Como adquiriu chatGPT as súas habilidades lingüísticas? De que coñecemento do mundo dispón? Por que é capaz de proporcionar información útil e creativa en ocasións, e con todo falla en cousas tan simples como aritmética básica, e é capaz de mentir con convicción absoluta?", pregúntase o conferenciante. E a explicación diso radica en que "chatGPT é un sistema que emula exclusivamente o noso pensamento intuitivo, e non o noso pensamento racional. Cando usamos o noso pensamento racional, razoamos sobre datos e coñecemento explícito (por exemplo, cando facemos a declaración da renda). Cando usamos a nosa intuición, tomamos decisións baseadas na nosa experiencia, ás que non podemos, en xeral, dar unha explicación racional. A intelixencia humana mestura as dúas vertentes, e o noso éxito depende, en moitas ocasións, de saber cando debe predominar o racional e cando o intuitivo", asegura este experto investigador da UNED. 

Julio Gonzalo, en plena exposición e ao seu carón a decana do Colexio de Economistas de Ourense, Carmen Sampayo, tomando boa nota das verbas do relator.

E posto que chatGPT está baseado case exclusivamente no noso pensamento intuitivo, "e por iso non manexa datos fiables nin razoa explicitamente sobre eles: fala de oídas". Podemos, di o doutor Julio Gonzalo, "chamarlle un supercuñado. Ou, mellor aínda, un cuñado estocástico, xa que o que nos di está dirixido por probabilidades: con cada palabra busca maximizar a probabilidade de que sexa natural no contexto da conversación e de que nos dea información aparentemente útil, aínda que non sexa veraz".

Sinalou o relator que a investigación en Intelixencia Artificial centrouse, nas súas orixes, en emular o noso pensamento racional: tratábase de proporcionar ao ordenador coñecemento, por unha banda, e capacidade de razoar, por outro. "Aínda que se lograron éxitos parciais en problemas moi acoutados (como, por exemplo, a tradución de informes meteorolóxicos), foi imposible escalar este tipo de enfoque a problemas máis xerais. Entón pasouse a un novo paradigma, a aprendizaxe máquina (Machine Learning)". 

Nese novo paradigma, "o programador elixe como representar os datos de entrada: por exemplo, se se trata de conceder préstamos, cada solicitante pode representarse pola súa idade, nivel de ingresos, tipo de traballo, barrio no que vive etc. A forma na que cada trazo contribúe á decisión final apréndea o algoritmo por si só, a partir de moitos exemplos anteriores para os que os expertos xa tomaron unha decisión". 

O seguinte paso -a idea crucial que levou a chatGPT- deuse nos anos 2011/2012, "cando se deixou aos algoritmos tamén a tarefa de decidir cal era a forma doada de representar os datos de entrada. En particular, adestráronse redes neuronais profundas -grandes fórmulas que imitan as redes de neuronas coas súas conexións sinápticas- para aprender a representar imaxes, texto, ou ambas as dúas cousas simultaneamente. Estes cerebros artificiais resolvían mellor as tarefas relacionadas co procesamento da linguaxe e coa visión artificial a través desas representacións optimizadas e, ao mesmo tempo, completamente opacas. A maiores, a partir de certo tamaño, esas redes comezaron a ser capaces de aprender a resolver tarefas cun puñado de exemplos ou mesmo, simplemente, cunha descrición da tarefa (moito máis parecido a como aprendemos os humanos)", expuxo o relator.

Julio Gonzalo explicou que chatGPT introduce un paso adicional, "en principio sinxelo pero de consecuencias enormes, sobre os cerebros artificiais capaces de entender a linguaxe. Ese paso consiste en adestrarlles para dialogar cos humanos, de forma que resposten con información pertinente e útil. Comézase con profesores humanos, que lles din que respostar cara determinadas cuestións. Nunha segunda fase, os profesores só mostran as súas preferencias entre unhas respostas e outras. E, nunha terceira fase, a máquina aprende un modelo do profesor e segue aprendendo preguntando a ese modelo, de forma que pode seguir aprendendo a moita máis velocidade sen intervención humana". 

Resultado

O resultado é "un cerebro artificial que non almacena de forma explícita coñecemento, nin sabe tampouco razoar como os humanos. Fala de forma intuitiva a partir da inmensidade de textos que leu (e asimilado só intuitivamente) e da fase de aprendizaxe na que descubriu o que os humanos queren oír. Por iso resulta moi natural e aparenta un coñecemento moi vasto, pero ao mesmo tempo pode cometer erros infantís e mesmo mentir con apromo. Por iso chatGPT non é fiable", dixo o investigador da UNED á vez que engadiu: "Quere isto dicir que non é útil? En absoluto: é unha ferramenta de produtividade fantástica cando lle pedimos axuda sobre temas dos que somos expertos, porque nos aforra traballo e sabemos que cousas hai que corrixir ou iñorar. E tamén pode ser unha axuda para tarefas creativas, nas que a información factual non é relevante. E pódese empregar tamén para fomentar o pensamento crítico, en vez de deixar que nos quite a capacidade de pensar.

Ao final da conferencia estableceuse un interesante turno de preguntas de espectadores que se mostran cautos co chatGPT e de outros que argumentaban que o problema non é a máquina senón que está en quen a usa. O relator salientou que chatGPT é "extremadamente sensible a como lle formulamos unha pregunta. Como non é racional, resposta sen pensar". Con esta tecnoloxía, sinalou Julio Gonzalo, as cousas "van ser infinitamente mellores e infinitamente peores". 

Julio Gonzalo Arroio é doutor pola Universidade Autónoma de Madrid coa tese Regulas xenéricas obxectos, regras e excepcións no procesamento da linguaxe natural 1995. Dirixida pola doutora Pilar Rodríguez Marín. Arroio é catedrático da área de Linguaxes e Sistemas Informáticos, vicerreitor adxunto de Investigación, Transferencia do Coñecemento e Divulgación Científica da UNED, e investigador principal do grupo UNED de investigación en Procesamento da Linguaxe Natural e Recuperación de Información. As publicacións de Julio Gonzalo foron referenciadas en máis de 5.000 ocasións (segundo Google Scholar) e en 2012 recibiu un Google Faculty Research Award (conxuntamente con Stefano Mizzaro e Enrique Amigó) pola súa investigación en métricas de avaliación para sistemas de Intelixencia Artificial. É un dos tres Xeral Chair do congreso SIGIR 2022, o congreso mundial de investigación en tecnoloxías de procura, que ese ano celebrouse por primeira vez en España.  No eido da divulgación é membro do equipo do podcast "Esto es lo que AI" sobre a actualidade da Intelixencia Artificial e o seu impacto na sociedade.

 

UNED Ourense

Comunicación

Carretera de Vigo Torres do Pino  s/n Baixo 32001 Ourense - . Tel. 988371444 info@ourense.uned.es