¿Por qué alucinan los modelos amplios de lenguaje?

Autores/as

DOI:

https://doi.org/10.20983/cuadfront.2023.58.12

Resumen

La inteligencia artificial (IA) ha sido uno de los temas de conversación más populares este año. En noviembre de 2022 OpenAI liberó ChatGPT al público, un modelo amplio de lenguaje (LLM, large language model, en inglés) capaz de generar y mantener conversaciones coherentes con humanos. Fue tan rotundo el éxito que solo en cinco días había alcanzado un millón de usuarios. Con esto empezó una nueva contienda entre las grandes empresas de tecnología. Cada semana salen nuevos avances, modelos de inteligencia artificial que poco a poco se integran en todos los productos que usamos.

Descargas

Los datos de descargas todavía no están disponibles.

Biografía del autor/a

Luis Alberto Garma Oehmichen, OCTOPY

Doctor en Astrofísica; analista de datos e inteligencia artificial en Octopy, Ciudad de México.

Citas

Sébastien Bubeck et al., “Sparks of Artificial General Intelligence: Early experiments with GPT-4”, Microsoft Research, 2023.

Tyna Eloundou et al., “GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models”, 2023.

Ted Chiang, “Chatgpt is a blurry jpeg of the web”, en The New Yorker, 9 de febrero de 2023.

Long Ouyang, Jeff Wu, Xu Jiang, Diogo Almeida et al., “Training language models to follow instructions with human feedback”, OpenAI, 2022.

Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma et al., “Chain-of-Thought Prompt- ing Elicits Reasoning in Large Language Models”, 2023.

N Shinn, F Cassano, B Labash, A Gopinath et al., “Reflexion: Language Agents with Verbal Re-inforcement Learning”, 2023.

Shunyu Yao, Dian Yu, Jeffrey Zhao, Izhak Shafran et al., “Tree of Thoughts: Deliberate Problem Solving with Large Language Models, 2023.

Timo Schick, Jane Dwivedi-Yu, Roberto Dessì, Roberta Raileanu, et al., “Toolformer: Language models can teach themselves to use tools”, Meta AI Research, 2023.

Descargas

Publicado

2023-08-28

Cómo citar

Garma Oehmichen, L. A. (2023). ¿Por qué alucinan los modelos amplios de lenguaje?. Cuadernos Fronterizos, 19(58), 45–49. https://doi.org/10.20983/cuadfront.2023.58.12

Número

Sección

Dossier: Inteligencia Artificial