본문 바로가기
반응형

AI22

AI2, 오픈 소스 LMM ‘몰모’ 공개..."100배 적은 데이터 학습으로 GPT-4o 능가" 앨런AI연구소(AI2)가 새로운 오픈 소스 대형멀티모달모델(LMM) 제품군 ‘몰모(Molmo)’를 출시했습니다.이 모델은 고품질 데이터를 학습하여 오픈AI의 'GPT-4o'를 포함한 여러 벤치마크에서 우수한 성능을 보여주고 있다고 주장하고 있습니다.  몰모 모델의 구성AI2는 몰모 제품군에 포함된 4종의 오픈 소스 LLM을 발표했습니다.이 모델들은 각각 ▲몰모-72B ▲몰모-7B-D ▲몰모-7B-O ▲몰모E-1B입니다.현재 이 모델들은 허깅페이스에서 연구 및 상업적 용도로 사용 가능하며, 각각 알리바바의 오픈 소스 '큐원2-72B'와 AI2의 '올모' 모델을 기반으로 하고 있습니다. 플래그십 모델인 몰모-72B와 몰모-7B-D는 특히 여러 벤치마크에서 오픈AI의 GPT-4o, 앤트로픽의 '클로드 3.5 .. 2024. 9. 30.
AI2, 고성능 저비용 모델 '올모E(OLMoE)' 출시: 최초로 MoE 방식의 오픈소스 공개 전문가 혼합(MoE) 기반의 대형 언어 모델, 올모E로 AI 연구의 새로운 장을 열다비영리 민간 AI 연구기관 앨런AI연구소(AI2)가 올모E(OLMoE)를 출시했습니다.이 모델은 전문가 혼합(MoE) 방식의 대형 언어 모델(LLM)로, 오픈소스 형태로 공개된 최초의 MoE 기반 모델입니다.AI2는 모델의 가중치, 훈련 데이터, 코드 등 모든 정보를 투명하게 공개하며, AI 커뮤니티에 큰 영향을 미칠 것으로 기대됩니다.올모E의 주요 특징1. MoE 방식의 혁신올모E는 MoE(Experts Mixture of Experts) 방식을 활용하여 모델의 성능을 극대화하면서도 비용을 절감합니다.MoE 방식은 대형 언어 모델을 여러 개의 전문 모델로 나누어, 필요할 때마다 특정 전문 모델을 활성화하여 사용하는 방식.. 2024. 9. 11.
반응형