Molmo AI: Model SOTA Multimodal Open Language AI
Familia Molmo de modele de limbaj viziune deschis dezvoltate de Institutul Allen pentru IA. OpenSource
MolmoAI se bazează pe Qwen2
Molmo AI Free NoLogin online
Dacă ați întâmpinat o eroare, vă rugăm să alegeți alta
Imagine Chatbot cu Molmo-7B
Imagine Chatbot cu MolmoE-1B
Model de limbaj vizual – Molmo
Generatorul de interogări de ajustare ColPali ColPali este o nouă abordare foarte interesantă a recuperării documentelor multimodale, care urmărește să înlocuiască dispozitivele de recuperare a documentelor existente care se bazează adesea pe un pas OCR cu o abordare multimodală end-to-end.
Molmo:Open Weights și Open Data
pentru modele multimodale de ultimă generație
Molmo este un nou model open-source multimodal AI dezvoltat de Institutul Allen pentru Inteligență Artificială (Ai2). Anunțat pe 25 septembrie 2024, își propune să ofere capabilități de înaltă performanță, menținând în același timp o dimensiune semnificativ mai mică a modelului în comparație cu alte sisteme AI de vârf, cum ar fi GPT-4o de la OpenAI și Gemini 1.5 Pro de la Google. Există trei versiuni ale modelului Molmo ai:
- MolmoE-1B: Un amestec de model de experți cu 1 miliard de parametri activi.
- Molmo-7B-O: Cea mai accesibilă versiune cu 7 miliarde de parametri.
- Molmo-72B: Versiunea cea mai performantă cu 72 de miliarde de parametri

MolmoE-1B: Un amestec de model de experți cu 1 miliard de parametri activi.

Molmo-7B-O: Cea mai accesibilă versiune cu 7 miliarde de parametri.

Molmo-72B: Versiunea cea mai performantă cu 72 de miliarde de parametri
Comparație de deschidere VLM Molmo AI depășește GPT-4o, Gemini 1.5 Pro și Claude 3.5
Caracterizăm deschiderea VLM-urilor pe baza a două atribute (ponderi deschise, date deschise și
cod) pe trei componente ale modelului (VLM și cele două componente ale sale pre-antrenate, coloana vertebrală LLM și codificatorul de viziune). În plus față de deschis vs. închis, folosim eticheta „distilată” pentru a indica faptul că datele utilizate pentru antrenamentul VLM includ imagini și text generate de un VLM diferit, proprietar, ceea ce înseamnă că modelul nu poate fi reprodus fără o dependență de VLM proprietar.

Ce vorbesc oamenii despre PixelDance în Social Media
Molmo de @allen_ai – Model open source SoTA Multimodal (Vision) Language, depășind Claude 3.5 Sonnet, GPT4V și comparabil cu GPT4o 🔥
— Vaibhav (VB) Srivastav (@reach_vb) 25 septembrie 2024
Ei lansează patru puncte de control model:
1. MolmoE-1B, un amestec de model de experți cu 1B (activ) 7B (total)
2. Molmo-7B-O, cel mai deschis model 7B
3.… pic.twitter.com/9hpARh0GYT
Faceți cunoștință cu MOLMO 🔥🔥
— Prashant (@Prashant_1722) 27 septembrie 2024
IA multimodală de ultimă oră, open-source, puternică și gratuită pentru toată lumea.
vezi această demonstrație uimitoare a unui robot care folosește modelul Molmo pentru a detecta obiecte.
Au o versiune găzduită gratuită pe site pentru a încerca modelul cu Image to Text și Text to Image. am fost… pic.twitter.com/Qx7hp1rtcb
ieri @allen_ai a lansat Malmo – o familie de modele deschise de IA multimodale de ultimă generație
— SkalskiP (@skalskip92) 26 septembrie 2024
indicarea oferă o explicație naturală bazată pe pixeli ai imaginii
când îi cereți lui Malmo să detecteze sau să numere obiecte, acesta va marca obiectele detectate cu puncte
legătură: https://t.co/LsUsZ2ghNT pic.twitter.com/d3ETnAS670
Molmo de @allen_ai – un model SOTA multimodal
— Omar Sanseviero (@osanseviero) 25 septembrie 2024
🤗Modele deschise și date parțial deschise
🤏Dimensiuni model 7B și 72B (+7B MoE cu 1B parametri activi)
🤯 Benchmark-uri peste GPT-4V, Flash etc
🗣️Preferință umană de 72B la egalitate cu modelele API de top
🧠PixMo, un set de date de înaltă calitate pentru subtitrări... pic.twitter.com/faqvCkAmsb
Încercați @allen_ailui Molmo VLM pe Open GRID acum! VLM-urile precum Molmo aduc un strat bogat de cunoștințe semantice roboților – permițându-le să răspundă la interogările utilizatorilor și să interpreteze medii complexe cu ușurință. Scalați soluțiile AI autonome cu modele AI de ultimă generație pe GRID astăzi! https://t.co/q9szAT1PiG pic.twitter.com/XuyYpMhQ8D
— Fundații la scară (@ScaFoAI) 27 septembrie 2024
Llama 3.2 s-ar putea să nu fi fost cea mai interesantă versiune multimodală de ieri. 🤔 Molmo de la @allen_ai depășește Llama 3.2, disponibil sub Apache 2.0 și în UE, își va elibera datele, va crea evaluări ELO personalizate și o arhitectură mai simplă decât mllama3.2, care este probabil... pic.twitter.com/du63zXjQcN
— Philipp Schmid (@_philschmid) 26 septembrie 2024
Întrebări frecvente despre Molmo
Experimentați cel mai bun model AI gratuit online în 8PixLabs
Mai multe postări de model AI recent