반응형 AI모델57 MIT, AI 데이터셋 출처 투명성 확보를 위한 '데이터 출처 탐색기' 공개 최근 MIT 연구진이 발표한 ‘데이터 출처 탐색기(Data Provenance Explorer)’ 도구는 AI 모델 훈련에서 데이터셋의 출처와 사용 정보를 자동으로 정리하여 AI 개발자들에게 새로운 가능성을 열어주고 있습니다. 이번 연구는 데이터셋의 라이선스와 출처의 명확성을 확보함으로써 AI 모델의 신뢰성을 높이는 데 중요한 역할을 할 것으로 기대됩니다.데이터셋 투명성의 필요성AI 모델의 성능은 훈련에 사용되는 데이터셋의 품질에 크게 의존합니다. 그러나 대형 언어 모델(LLM) 훈련에는 다양한 웹 소스에서 수집된 대규모 데이터셋이 필요하며, 이 과정에서 데이터 출처와 사용 제한 사항이 자주 혼동되거나 누락되는 문제가 발생합니다. 이러한 정보 부족은 법적 및 윤리적 문제를 일으킬 수 있으며, 모델의 성능.. 2024. 9. 5. 엔비디아의 라마 3.1 미니트론 4B: 초소형 AI 모델로 고성능을 구현하는 방법 안녕하세요, 개발자 여러분! 오늘은 엔비디아가 새롭게 출시한 소형 언어 모델(sLM), '라마-3.1 미니트론 4B'에 대해 이야기해보려고 합니다.이 모델은 강력한 성능과 자원 효율성을 자랑하며, AI 개발자와 연구자들 사이에서 주목받고 있는데요, 초보자들도 쉽게 이해할 수 있도록 중요한 개념을 간단히 설명해드릴게요.1. 소형 언어 모델(sLM)란?소형 언어 모델은 파라미터 수를 줄이면서도 성능을 최대한 유지하는 인공지능 모델입니다.'라마-3.1 미니트론 4B'는 엔비디아가 기존의 라마-3.1 8B 모델을 절반으로 축소해 만든 모델로, 더 작은 크기지만 성능은 여전히 탁월합니다.2. 어떻게 모델을 줄였을까? - 가중치 프루닝 엔비디아는 '가중치 프루닝(Weight Pruning)'이라는 기술을 사용했습니.. 2024. 8. 20. 경량형 AI 모델 경쟁 가속…성능은 '높게' 비용은 '낮게' [sLLM] 여러분! 최근 AI 기술 분야에서 중요한 변화를 맞이하고 있는 가운데, 경량형 AI 모델의 경쟁이 심화되고 있습니다.기업들이 성능을 높이면서도 비용을 낮추기 위한 다양한 전략을 채택하고 있는 이 시점에서, 경량형 거대언어모델(sLLM)의 발전이 주목받고 있습니다.이번 블로그에서는 최신 경량형 AI 모델의 동향과 이에 대한 기업들의 대응 전략을 살펴보겠습니다.경량형 AI 모델의 필요성과 배경최근 AI 모델의 발전은 기업 고객의 다양한 요구를 충족시키기 위해 성능과 비용의 최적화를 추구하는 방향으로 전개되고 있습니다.대규모 모델이 갖는 성능 이점에도 불구하고, 높은 인프라 비용과 에너지 소비는 기업들에게 큰 부담이 되고 있습니다.이에 따라 경량형 AI 모델은 성능을 유지하면서도 비용을 절감할 수 있는 솔루션.. 2024. 8. 11. LG, 7.8B 오픈 소스 모델 '엑사원 3.0' 공개: 글로벌 동급 능가 성능 LG가 혁신적인 AI 모델 '엑사원(EXAONE) 3.0'을 공개했습니다.78억 매개변수로, '라마 3.1 8B'나 '큐원 2 7B', '미스트랄 7B' 같은 글로벌 모델을 능가한다고 하는데요.성능과 경제성에서 어떠한 진전을 이뤘는지 자세히 살펴보겠습니다.1. 성능과 경제성LG AI 연구원은 엑사원 3.0이 성능과 경제성에서 큰 진전을 이루었다고 밝혔습니다. 추론 처리 시간은 56%, 메모리 사용량은 35% 줄이고, 구동 비용은 72% 절감했습니다.전력 문제도 해결하여 모델의 크기를 100분의 3으로 줄이면서 성능을 높였습니다. 2. 글로벌 경쟁력 엑사원 3.0은 '라마 3.1 8B', '큐원 2 7B', '미스트랄 7B' 등과 비교해 13개 벤치마크에서 1위를 차지하며, 특히 한국어 전 영역에서 최고의.. 2024. 8. 7. 허깅페이스, 엔비디아 NIM 기반 추론 서비스로 AI 모델 성능 5배 향상! 새로운 혁신의 시작 인공지능(AI) 기술의 발전이 날로 가속화되면서, AI 모델의 성능과 효율성을 높이는 새로운 기술이 지속적으로 등장하고 있습니다.최근에는 AI 커뮤니티에서 중요한 역할을 하고 있는 허깅페이스(Hugging Face)와 세계적인 AI 기술 회사 엔비디아(NVIDIA)가 협력하여 AI 모델의 추론 성능을 획기적으로 향상시킬 새로운 서비스를 발표했습니다.바로 엔비디아 NIM(NVIDIA Inference Microservices) 기반의 추론 서비스입니다.이 서비스는 개발자들이 엔비디아 DGX 클라우드(DGX Cloud)에서 실행되는 AI 모델을 더 빠르고 효율적으로 배포할 수 있도록 지원합니다.이 글에서는 허깅페이스와 엔비디아의 새로운 협력과 이로 인해 제공되는 기술적 장점에 대해 자세히 살펴보겠습니다. 허.. 2024. 8. 6. 구글, 초소형 AI 모델 '젬마 2 2B' 출시! 성능은 GPT-3.5를 초월 오늘은 구글이 최근 발표한 최신 AI 모델에 대해 흥미진진한 소식을 전해드리려 합니다.바로 구글이 새롭게 출시한 초소형 오픈 소스 AI 모델, '젬마 2 2B'에 관한 이야기입니다.이 모델이 어떤 혁신을 가져왔는지, 그리고 우리가 주목해야 할 점은 무엇인지 함께 알아보겠습니다.구글의 혁신, '젬마 2 2B'가 가져온 변화구글은 지난 8월 1일, 26억 개의 매개변수를 가진 '젬마 2 2B' 모델을 공개했습니다.이 모델은 비록 작은 규모지만, 그 성능은 매우 놀라운 수준입니다.구글은 이 모델이 오픈AI의 'GPT-3.5'와 미스트랄의 '믹스트랄 8x7B'보다 뛰어난 성능을 발휘한다고 주장하고 있습니다.실제로, LMSYS의 챗봇 아레나에서 '젬마 2 2B'는 1130점을 기록하며, 매개변수가 10배 더 많은.. 2024. 8. 5. 이전 1 ··· 6 7 8 9 10 다음 반응형