Tiempo estimado de lectura: 8 minutos
¡Bienvenidos a otro post del blog de DamIA Digitals! Hoy, les presentaremos la noticia más tendencia en el mundo de la IA: Hugging Face, una compañía excepcional que sigue trascendiendo fronteras con su propósito de democratizar la buena inteligencia artificial y maximizar su impacto positivo en diversas industrias y en la sociedad.
Hugging Face no es solo una compañía, es también un ecosistema abierto y una plataforma en línea que se dedica a compartir y correr modelos de machine learning, especialmente modelos basados en transformers para el procesamiento del lenguaje natural (NLP) y otros trabajos de IA.
Buena parte de su fama radica en su biblioteca Transformers y en el Hub de Hugging Face, un repositorio de modelos, conjuntos de datos y aplicaciones de inteligencia artificial. La misión de esta firma apunta a convertirse en el “GitHub del machine learning” al alojar y versionar modelos, conjuntos de datos y aplicaciones de ML para la colaboración.
Para entender cómo la IA agencial va más allá de los simples modelos de NLP, consulta este artículo.
Fundada en 2016 en la ciudad de Nueva York por Clément Delangue (CEO), Julien Chaumond (CTO) y Thomas Wolf (Chief Science Officer), inicialmente, Hugging Face se centró en la creación de una aplicación de chatbot lúdica para adolescentes que proporcionara apoyo emocional y entretenimiento.
Sin embargo, durante el proceso de desarrollo del chatbot, la compañía comenzó a difundir sus modelos subyacentes de NLP de manera abierta, los cuales rápidamente ganaron más popularidad que la propia aplicación. Así, el rumbo de Hugging Face cambió y se centró en herramientas y modelos, con un enfoque específico en los modelos transformadores (como los estilos BERT y GPT) y en las bibliotecas para desarrolladores y la infraestructura de alojamiento de modelos.
“Con el tiempo, la firma amplió su ámbito desde el NLP puro para incluir visión por computadora, audio, modelos multimodales, modelos de difusión y aprendizaje reforzado.”
El hub de Hugging Face es la plataforma en línea central con tres tipos principales de activos: modelos, conjuntos de datos y espacios (aplicaciones). El hub sirve para hospedar decenas de miles de modelos pre-entrenados para tareas que incluyen clasificación de texto, traducción, resumen, respuesta a preguntas, clasificación de imágenes y audio, y más.
Por otra parte, la biblioteca Transformers es una aplicación de código abierto que ofrece implementaciones y pesos previamente entrenados para muchos modelos de vanguardia (como BERT, RoBERTa, T5, GPT, transformadores de visión y audio).
Hugging Face también proporciona varias formas de ejecutar modelos en producción. Algunas de estas modalidades incluyen la API de inferencia alojada, implementación en la nube privada o en las instalaciones del cliente, y AutoTrain, herramientas que automatizan la formación y el ajuste fino de modelos en datos del usuario con un conocimiento mínimo de ML.
Para explorar una herramienta práctica de creación y despliegue de agentes de IA, visita esta página.
Más allá de Transformers, Hugging Face ha lanzado herramientas que soportan modalidades multimodales (por ejemplo, texto-imagen, texto-audio), modelos de difusión (por ejemplo, para la generación de imágenes), aprendizaje reforzado y otros flujos de trabajo avanzados de ML.
Hugging Face participa y lidera proyectos de ciencia abierta para publicar modelos abiertos a gran escala, como BLOOM. Este modelo de lenguaje multilingüe de gran tamaño se lanzó en julio de 2022 con una arquitectura similar a GPT-3, marcando una transición hacia el ofrecimiento directo de sus propios modelos de lenguaje a gran escala, y no solo los de terceros.
Para ver cómo estos modelos afectan la forma de trabajo y roles laborales en diversas industrias, revisa este artículo.
Hugging Face cuenta con una gran comunidad activa de desarrolladores e investigadores, con más de 100,000 citados contribuyentes y usuarios en algunas revisiones. Más de 10,000 organizaciones utilizan los productos de Hugging Face, incluyendo Intel, Qualcomm, Pfizer, Bloomberg y eBay.
Hugging Face utiliza un modelo central abierto en el que se dividen en productos gratuitos de fuente abierta y características empresariales de pago que ofrecen mayor seguridad, cumplimiento, acuerdos de nivel de servicio (SLA), alojamiento privado, herramientas de inferencia avanzada y herramientas de automatización.
Hugging Face colabora con grandes compañías tecnológicas e instituciones de investigación. Un ejemplo notable es su asociación con IBM en 2023, con la que trabajaron en watsonx.ai, el estudio de IA de IBM para la formación, ajuste y despliegue de modelos de IA generativos y tradicionales.
Hugging Face continúa expandiéndose más allá del software hasta experimentos con hardware y robótica. Por ejemplo, es destacable la implicación de Hugging Face con Reachy Mini, un robot de código abierto para constructores de IA, anunciado en julio de 2025, demostrando su interés en conectar modelos de ML con agentes incorporados e investigación en robótica.
Si quieren que profundicemos en alguno de estos temas (como la arquitectura y el diseño de la API de la biblioteca Transformers, cómo desplegar un LLM a través de la API de inferencia, o una mirada más profunda a BLOOM y otros LLM abiertos en el Hub) no duden en decírnoslo.
¡Esperamos que este post les haya brindado un entendimiento detallado de Hugging Face!
Es un tipo de arquitectura de red neuronal basada en mecanismos de atención. Se considera fundamental para muchas aplicaciones de NLP y visión por computadora.
Mientras GitHub se dedica principalmente al alojamiento de repositorios de código, Hugging Face ofrece un hub especializado para modelos de IA y datasets. Podría verse como el “GitHub del machine learning”.
}
Si tienes un proyecto en mente o quieres hablar sobre lo que has leído, escríbeme.
Contactar →