Molmo AI: Modelo de Inteligencia Artificial Multimodal en Lenguaje Abierto SOTA
Molmo Familia de modelos abiertos de lenguaje de visión desarrollados por el Allen Institute for AI. Fuente abierta
MolmoAI se basa en Qwen2
Molmo AI Free NoLogin en línea
Si encuentra un error, elija otro.
Chatbot de imágenes con Molmo-7B
Chatbot de imágenes con MolmoE-1B
Modelo de lenguaje visual - Molmo
ColPali, generador de consultas de ajuste fino ColPali es un nuevo enfoque muy interesante para la recuperación multimodal de documentos, cuyo objetivo es sustituir los recuperadores de documentos existentes, que a menudo se basan en un paso de OCR, por un enfoque multimodal de extremo a extremo.
Molmo :Pesos abiertos y datos abiertos
para modelos multimodales de última generación
Molmo es un modelo de IA multimodal de código abierto desarrollado por el Allen Institute for Artificial Intelligence (Ai2). Anunciado el 25 de septiembre de 2024, su objetivo es proporcionar capacidades de alto rendimiento manteniendo un tamaño de modelo significativamente más pequeño en comparación con otros sistemas de IA líderes, como GPT-4o de OpenAI y Gemini 1.5 Pro de Google. existen tres versiones del modelo de IA Molmo:
- MolmoE-1B: Un modelo de mezcla de expertos con mil millones de parámetros activos.
- Molmo-7B-O: La versión más accesible con 7.000 millones de parámetros.
- Molmo-72B: La versión de mayor rendimiento con 72.000 millones de parámetros
MolmoE-1B: Un modelo de mezcla de expertos con mil millones de parámetros activos.
Molmo-7B-O: La versión más accesible con 7.000 millones de parámetros.
Molmo-72B: La versión de mayor rendimiento con 72.000 millones de parámetros
Comparación de la apertura de VLM Molmo AI supera a GPT-4o, Gemini 1.5 Pro y Claude 3.5
Caracterizamos la apertura de los VLM basándonos en dos atributos (pesos abiertos, datos abiertos y
) en tres componentes del modelo (el VLM y sus dos componentes preentrenados, la columna vertebral del LLM y el codificador de visión). Además de abierto frente a cerrado, utilizamos la etiqueta "destilado" para indicar que los datos utilizados para entrenar el VLM incluyen imágenes y texto generados por un VLM propietario diferente, lo que significa que el modelo no puede reproducirse sin depender del VLM propietario.
¿Qué se dice de PixelDance en las redes sociales?
Molmo por @allen_ai - Modelo de lenguaje multimodal (visión) SoTA de código abierto, que supera a Claude 3.5 Sonnet, GPT4V y es comparable a GPT4o 🔥
- Vaibhav (VB) Srivastav (@reach_vb) 25 de septiembre de 2024
Lanzan cuatro modelos de puntos de control:
1. MolmoE-1B, un modelo de mezcla de expertos con 1B (activo) 7B (total)
2. Molmo-7B-O, modelo 7B más abierto
3.... pic.twitter.com/9hpARh0GYT
Conoce MOLMO 🔥🔥🔥
- Prashant (@Prashant_1722) 27 de septiembre de 2024
IA multimodal de vanguardia, de código abierto, potente y gratuita para todos.
vea esta asombrosa demostración de un robot que utiliza el modelo Molmo para detectar objetos.
Tienen una versión gratuita alojada en el sitio web para probar el modelo con Imagen a Texto y Texto a Imagen. Yo estaba... pic.twitter.com/Qx7hp1rtcb
ayer @allen_ai liberado Malmo: una familia de modelos abiertos de IA multimodal de última generación
- SkalskiP (@skalskip92) 26 de septiembre de 2024
señalar ofrece una explicación natural basada en los píxeles de la imagen
cuando pida a Malmo que detecte o cuente objetos, marcará los objetos detectados con puntos
enlace: https://t.co/LsUsZ2ghNT pic.twitter.com/d3ETnAS670
Molmo por @allen_ai - un modelo multimodal SOTA
- Omar Sanseviero (@osanseviero) 25 de septiembre de 2024
🤗Modelos abiertos y datos parcialmente abiertos
🤏7B y 72B tamaños de modelo (+7B MoE con 1B params activos)
🤯Benchmarks por encima de GPT-4V, Flash, etc.
🗣️Human Preferencia del 72B a la altura de los mejores modelos API
🧠PixMo, un conjunto de datos de alta calidad para... pic.twitter.com/faqvCkAmsb
Prueba @allen_aide Molmo en Open GRID. Los VLM como Molmo aportan una rica capa de conocimiento semántico a los robots, lo que les permite responder a las consultas de los usuarios e interpretar entornos complejos con facilidad. Amplíe hoy mismo las soluciones de IA autónoma con modelos de IA de última generación en GRID. https://t.co/q9szAT1PiG pic.twitter.com/XuyYpMhQ8D
- Scaled Foundations (@ScaFoAI) 27 de septiembre de 2024
Llama 3.2 podría no haber sido el lanzamiento multimodal más interesante de ayer. 🤔 Molmo de @allen_ai supera a Llama 3.2, disponible bajo Apache 2.0 y en la UE, liberará sus datos, creará evals ELO personalizadas, y una arquitectura más simple que mllama3.2 que presumiblemente... pic.twitter.com/du63zXjQcN
- Philipp Schmid (@_philschmid) 26 de septiembre de 2024
Preguntas frecuentes sobre Molmo
Experimente el mejor modelo de IA gratis en línea en 8PixLabs
Más modelos de IA publicados recientemente