“Chat GPT en sus últimas versiones es configurado por 175 billones de parámetros”: Leonardo Meza en charla sobre IA

Comparte

El Magíster en Administración y Dirección de Empresas de la Universidad de Santiago de Chile (MBA USACH) realizó en días pasados la charla “Inteligencia Artificial: como generar ventajas a través de su uso empresarial” a cargo de Leonardo Meza, CEO y Co fundador de DeepSource. En esta oportunidad participó también Rodrigo Seguel, Industry Solution Architect en IBM y profesor del programa.

Leonardo Meza partió la charla explicando que su exposición se iba a concentrar en los modelos de lenguaje que utiliza la IA. Agregando un poco de contexto relacionado a dos encuestas realizadas por las empresas EY y Mckinsey. “EY publicó hace poquito los resultados de una encuesta aplicada a 1000 ejecutivos en Latinoamérica donde indican que los dentro de principales desafíos internos que abordarán en los próximos años se encuentra la transformación digital (38%), el crecimiento de participación de Mercado (37%) y mejoras operacionales, productividad y costos (35%) y en todos estos ámbitos la IA juega con rol crucial para abordar estos desafíos.”

Por otra parte, “Mckinsey ha publicado recientemente estudios con muestra a nivel mundial, relacionados a IA, donde indican que el uso de IA generativa está en la agenda del 28% de los directorios y que las áreas que están más susceptibles a verse potenciadas por este tipo de herramientas son: marketing, ventas, desarrollo de producto y servicio; áreas que están cercanas a los clientes.”

Luego el charlista explicó la procedencia de las iniciales del Chat GPT asegurando que, “es una sigla que viene de G de generativo, P de pre entrenado y T de Transformador. Generativo y pre entrenado es más o menos intuitivo de saber de qué se trata. Pero cuando hablamos de transformador viene de un modelo transformer que es una red neuronal que aprende con texto y significado. Estamos hablando de un componente lógico computacional que es capaz de entender con texto y significado. Permite que entiendas de qué estás hablando y poder enfocar tus respuestas en ese contenido. Por debajo por supuesto se traduce en muchas matemáticas, modelos predictivos y muchos datos”. Agregando además que, “GPT entonces es una tecnología pre entrenada que entiende y genera texto. Entonces Chat GPT es un chat pre entrenado que entiende y genera texto”.

Después explicó los siguientes conceptos que son muy importantes para entender el lenguaje que utiliza Chat GPT:

Prompt, es el texto que se ingresa en un modelo para que responda lo que queremos. Cuando entendemos esto, luego tenemos que entender otro punto de vista, ¿Cómo ustedes le darían a alguien una tarea por Email si esa persona no pudiera preguntarte nada de vuelta?

“Actúa como un productor de video y crea un guion para promover la participación en la charla Explora las Posibilidades de Inteligencia Artificial en tus soluciones TI”.

La Temperatura en términos sencillos es ajustarle la creatividad al modelo de lenguaje.

Los Tokens son todas las palabras que procesa chat GPT las divide en trozos y cada uno de esos trozos es un Token.

Revisar la charla completa aquí.

Fuente: Vinculación con el Medio MBA.

Lee más noticias