Hoy explicaremos cómo mejorar el rendimiento de tu LLM a través de ejemplos. Para ellos seguiremos el paper "Language models are few-shot learners" publicado por OpenAI junto a GPT-3. Esta técnica nos va a permitir conseguir obtener resultados más precisos tanto con modelos pequeños como con modelos más grandes, modificando simplemente la forma en la que describimos la tarea en cuestión.
En este episodio vamos a explorar distintas formas de sacar el máximo partido a tu modelo grande de lenguaje (LLM). Revisaremos algunas instrucciones (prompts) y exploraremos el espacio latente de posibilidades de los modelos. ¿Te has encontrado con algún reto a la hora de conseguir los resultados esperados con tu LLM local?
Referencias mencionadas durante el episodio:
En este episodio voy a explicar las diferencias entre distintos programas para consultar diversos modelos grandes de lenguage (LLM) con licencias abiertas. Podrás aprender sobre tres de los clientes más populares: Ollama, Text-generation-webui y LM Studio. Cada una tiene sus pros y sus contras y al final del episodio podrás elegir entre distintos entornos, similares a ChatGPT, corriendo en tu ordenador, sin tener que conectar con ningún servidor externo.
Existen multitud de modelos a elegir y la calidad de los mismos va mejorando cada día. Además se están encontrando multitud de utilidades a estos sistemas de inteligencia artificial generativa. ¿Te gustaría poder probarlos y aprender de primera mano? ¡Es el momento ideal para empezar a seguir el podcast de La Hora Maker!
Si quieres saber más sobre Ollama y otras aplicaciones para correr grandes modelos de lenguaje local, no te pierdas el video resumen con las funcionalidades de cada una: https://youtu.be/3kUl_YcFz0U
En este episodio vamos a descubrir cuál es el principal factor para determinar la velocidad de creación de texto en distintas plataformas. Compararemos el potencial de las tarjetas RTX, las CPU Intel o Ryzen y ordenadores más modestos como las Raspberry Pi.
En este episodio vamos a explorar algunos de los parámetros más importantes para elegir tu modelo de Large Language Model. Revisaremos cuáles son los términos más habituales, aquellos modelos más comunes y empezaremos a descubrir plataformas en los que probarlos tanto online como localmente.
En este episodio del podcast vamos a hablar sobre la inteligencia artificial generativa, explorando los avances que se han producido en este campo durante el último año. Hablaremos sobre algunos de los modelos más destacados como ChatGPT, Stable Diffusion y Llama-2, ofreciendo contexto de porqué nos encontramos en un momento único para el desarrollo de esta tecnología.