Episode Summary
Exploramos el último paper de Apple sobre la eficiencia en la inferencia de modelos de lenguaje grandes (LLMs). Descubre cómo Apple está rediseñando la forma en que utilizamos y aplicamos los LLMs, optimizando el uso de la memoria DRAM y la memoria flash para reducir la necesidad de memoria de los equipos y permitir que dispositivos con menos RAM ejecuten modelos hasta ahora inalcanzables para ellos. Analizaremos técnicas innovadoras como el 'windowing' y la 'agrupación de filas y columnas', que ofrecen un enorme potencial a la hora de discernir cómo un modelo debe ser ejecutado (inferido). Únete a nosotros en esta fascinante charla sobre el futuro de la IA y cómo Apple está contribuyendo a un cambio significativo en la industria. Convierte en un Senior iOS Developer con el Swift Full Stack Bootcamp. Encuentra toda la información aquí: IV Swift Full Stack Bootcamp 2024. Descubre nuestro canal de Twitch en: twitch.tv/applecoding. Descubre nuestras ofertas para oyentes: - Cursos en Udemy (con código de oferta) - Apple Coding Academy - Suscríbete a Apple Coding en nuestro Patreon. - Canal de Telegram de Swift. Acceso al canal. --------------- Consigue las camisetas oficiales de Apple Coding con los logos de Swift y Apple Coding así como todo tipo de merchadising como tazas o fundas. - Tienda de merchandising de Apple Coding. --------------- Tema musical: "For the Win" de "Two Steps from Hell", compuesto por Thomas Bergensen. Usado con permisos de fair use. Escúchalo en Apple Music o Spotify.