El 23 de abril de 2024, Microsoft anunció el lanzamiento de Phi-3 Mini, el más pequeño de los tres modelos. Los modelos Phi-3 son pequeños modelos lingüísticos (SLM) capaces y rentables que van a superar a modelos del mismo tamaño en capacidades lingüísticas, matemáticas, de codificación y de razonamiento. Un investigador de IA, Simon Willison, declaró en una entrevista: «Phi-3 parece que va a ser un modelo pequeño sorprendentemente bueno si sus puntos de referencia reflejan lo que puede hacer». Phi-3-mini funciona cómodamente con menos de 8 GB de RAM y puede producir tokens a una velocidad razonable incluso con una CPU normal. Tiene licencia del MIT y debería funcionar bien en una Raspberry Pi de 55 dólares, y la calidad de los resultados que he visto hasta ahora es comparable a la de modelos 4 veces mayores».
Este modelo de IA, con 3.800 millones de parámetros, se entrena en un conjunto de datos relativamente pequeño en comparación con modelos lingüísticos más grandes como GPT-4. Phi-3-mini, el modelo de lenguaje de 3,8B, incluye variantes de longitud de contexto de 4K y 128K y actualmente está disponible en Hugging Face, Ollama y Azure AI Studio.
Un vicepresidente corporativo de Microsoft GenAI afirmó en una entrada de blog: «Phi-3-mini rinde mejor que modelos que duplican su tamaño, y Phi-3-small y Phi-3-medium superan a modelos mucho mayores, incluido GPT-3.5T».
Eric Boyd, vicepresidente corporativo de la plataforma de IA Azure de Microsoft, afirmó que los desarrolladores entrenaron a Phi03 con un plan de estudios inspirado en la forma en que los niños aprenden de los cuentos antes de dormir, libros con palabras sencillas y estructuras de frases que hablan de grandes temas. Boyd añadió que «no hay suficientes libros infantiles, así que cogimos una lista de más de 3.000 palabras y pedimos a un LLM que hiciera ‘libros infantiles’ para enseñar a Phi»
Según los datos de rendimiento publicados por Microsoft, los modelos Phi-3 han superado a varios modelos de tamaño comparable o superior, como Gemma 7B y Mistral 7B, en áreas de rendimiento cruciales.
En una entrada de blog, Microsoft reveló que se espera la incorporación de modelos en Phi-3 en las próximas semanas. Estos modelos incluirán Phi-3-pequeño (7B) y Phi-3-mediano (14B).
ITC, un importante conglomerado empresarial de la India, está utilizando Phi-3 en su actual colaboración con Microsoft. Esta colaboración se centra en el desarrollo de Krishi Mitra, una aplicación centrada en el agricultor que presta servicio a más de un millón de agricultores. Saif Naik, responsable de Tecnología de ITCMAARS, ha declarado: «Nuestro objetivo con el copiloto de Krishi Mitra es mejorar la eficiencia manteniendo la precisión de un gran modelo lingüístico. Estamos encantados de colaborar con Microsoft en el uso de versiones perfeccionadas de Phi-3 para alcanzar nuestros dos objetivos: eficiencia y precisión».