
La Hora Maker
Podcast von César García Sáez
La Hora Maker te ofrece las últimas novedades relacionadas con el mundo maker: tecnologías para la fabricación personal, herramientas para la fabricación digital, técnicas e ideas para la construcción en formato hazlo tu mismo. En este programa también queremos dar a conocer el movimiento maker al público general, así como destacar los principales eventos en España y el resto del mundo. En La Hora Maker hablaremos también de los grandes cambios que se están produciendo de forma simultánea como el diseño abierto, la personalización radical, las máquinas que fabrican máquinas, el software libre, etc. Súmate a este viaje. ¡Será divertido!
Nimm diesen Podcast mit
Alle Folgen
57 Folgen
Hoy explicaremos cómo mejorar el rendimiento de tu LLM a través de ejemplos. Para ellos seguiremos el paper "Language models are few-shot learners" publicado por OpenAI junto a GPT-3. Esta técnica nos va a permitir conseguir obtener resultados más precisos tanto con modelos pequeños como con modelos más grandes, modificando simplemente la forma en la que describimos la tarea en cuestión.

En este episodio vamos a explorar distintas formas de sacar el máximo partido a tu modelo grande de lenguaje (LLM). Revisaremos algunas instrucciones (prompts) y exploraremos el espacio latente de posibilidades de los modelos. ¿Te has encontrado con algún reto a la hora de conseguir los resultados esperados con tu LLM local? Referencias mencionadas durante el episodio: * The ChatGPT Prompt Book: https://docs.google.com/presentation/d/17b_ocq-GL5lhV_bYSShzUgxL02mtWDoiw9xEroJ5m3Q/ [https://docs.google.com/presentation/d/17b_ocq-GL5lhV_bYSShzUgxL02mtWDoiw9xEroJ5m3Q/] * Buscador Phind: https://www.phind.com [https://www.phind.com] * GPT Masterclass : 4 years of Prompt Engineering in 16 Minutes: https://www.youtube.com/watch?v=aq7fnqzeaPc [https://www.youtube.com/watch?v=aq7fnqzeaPc]

En este episodio voy a explicar las diferencias entre distintos programas para consultar diversos modelos grandes de lenguage (LLM) con licencias abiertas. Podrás aprender sobre tres de los clientes más populares: Ollama, Text-generation-webui y LM Studio. Cada una tiene sus pros y sus contras y al final del episodio podrás elegir entre distintos entornos, similares a ChatGPT, corriendo en tu ordenador, sin tener que conectar con ningún servidor externo. Existen multitud de modelos a elegir y la calidad de los mismos va mejorando cada día. Además se están encontrando multitud de utilidades a estos sistemas de inteligencia artificial generativa. ¿Te gustaría poder probarlos y aprender de primera mano? ¡Es el momento ideal para empezar a seguir el podcast de La Hora Maker! Si quieres saber más sobre Ollama y otras aplicaciones para correr grandes modelos de lenguaje local, no te pierdas el video resumen con las funcionalidades de cada una: https://youtu.be/3kUl_YcFz0U

En este episodio vamos a descubrir cuál es el principal factor para determinar la velocidad de creación de texto en distintas plataformas. Compararemos el potencial de las tarjetas RTX, las CPU Intel o Ryzen y ordenadores más modestos como las Raspberry Pi.

En este episodio vamos a explorar algunos de los parámetros más importantes para elegir tu modelo de Large Language Model. Revisaremos cuáles son los términos más habituales, aquellos modelos más comunes y empezaremos a descubrir plataformas en los que probarlos tanto online como localmente.

Hol dir die App, um deine Podcasts mitzunehmen