본문 바로가기
반응형

인공지능33

MIT, AI 모델 훈련의 투명성을 높이다! 데이터 출처 탐색기 공개 데이터의 투명성을 확보하여 AI 모델의 신뢰성을 높이다!인공지능(AI) 기술의 발전과 함께 데이터의 중요성이 날로 커지고 있습니다.그러나 대형 언어 모델(LLM) 훈련에 필요한 데이터셋의 출처와 사용 정보가 불명확한 경우가 많아 법적, 윤리적 문제를 야기하고 있습니다.최근 MIT 연구팀이 이 문제를 해결하기 위한 혁신적인 도구를 공개했습니다. 바로 ‘데이터 출처 탐색기(Data Provenance Explorer)’입니다.이 도구는 데이터셋의 제작자, 출처, 라이선스, 허용된 사용법에 대한 요약 정보를 자동으로 생성하여 AI 모델의 훈련 과정에서 발생할 수 있는 문제를 사전에 예방하고, 데이터의 투명성을 확보하는 데 기여하고자 합니다.데이터 출처 탐색기의 혁신적인 기능과 필요성AI 모델 훈련에는 막대한 .. 2024. 9. 17.
샘 알트먼, 'o1'에 대한 과도한 기대 경계... "o1은 AGI의 시작일 뿐" 샘 알트먼, 'o1'에 대한 과도한 기대 경계... "o1은 AGI의 시작일 뿐"오픈AI CEO 샘 알트먼이 최근 출시된 ‘o1’ 모델에 대해 과도한 기대를 경계하는 발언을 했습니다.o1은 인공지능(AI) 기술의 중요한 발전을 의미하지만, 일반 사용자들에게는 아직 한계가 있을 것이라는 것이 그의 메시지입니다.이번 글에서는 o1의 특징과 알트먼의 발언, 그리고 이를 통해 알 수 있는 AI 기술의 현재 상황에 대해 살펴보겠습니다.o1, 어떤 모델인가?o1은 오픈AI의 최신 인공지능 모델로, 이전 모델보다 더 발전된 기능을 제공합니다.알트먼 CEO는 o1을 "지금까지 우리가 만든 가장 유능하고 정렬된 모델"이라고 평가하며, 그럼에도 불구하고 여전히 결함과 제한이 있다고 밝혔습니다. 이는 AI 기술이 계속 발전.. 2024. 9. 16.
미스트랄, 최초의 멀티모달 모델 '픽스트랄 12B' 출시 프랑스의 인공지능 스타트업 미스트랄(Mistral)이 새로운 이정표를 세우며, 최초의 멀티모달 모델인 '픽스트랄 12B(Pixtral 12B)'를 출시했습니다. 이 모델은 텍스트와 이미지를 동시에 처리할 수 있는 기능을 갖추고 있어, 인공지능의 가능성을 한층 넓힐 것으로 기대됩니다. 본 기사에서는 픽스트랄 12B의 주요 특징과 활용 가능성, 그리고 미스트랄의 향후 계획에 대해 자세히 살펴보겠습니다.픽스트랄 12B의 주요 특징1. 멀티모달 기능픽스트랄 12B는 기존의 텍스트 기반 언어 모델 '네모(Nemo) 12B'를 기반으로, 4억 개의 매개변수를 갖춘 비전 어댑터를 추가한 모델입니다. 이 비전 어댑터는 이미지 처리 기능을 제공하여, 모델이 텍스트와 이미지를 모두 이해하고 처리할 수 있게 합니다. 최대 .. 2024. 9. 13.
Perplexity.ai 사용법: 인공지능 기반 정보 검색 서비스 소개[feat SKT 1년 무료구독권 신청 방법 ~10월31일] 오늘날의 검색 엔진은 방대한 정보 속에서 원하는 답을 찾기 어렵게 만들기도 합니다.하지만 Perplexity.ai는 이러한 문제를 해결하는 혁신적인 AI 기반 검색 서비스로, 사용자가 더욱 직관적이고 정확한 정보를 쉽게 찾을 수 있게 돕습니다.이 블로그에서는 Perplexity.ai의 기능과 사용법을 초보자도 쉽게 이해할 수 있도록 설명하겠습니다.1. Perplexity.ai란 무엇인가?Perplexity.ai는 인공지능을 기반으로 한 검색 엔진이자 정보 검색 도구입니다.일반적인 검색 엔진과 달리 Perplexity.ai는 사용자가 입력한 질문을 이해하고, 웹상의 정보뿐 아니라 다양한 출처를 종합하여 간결하고 명확한 답변을 제공합니다. 이 서비스는 기존의 검색 엔진이 제공하는 수많은 링크 대신, AI가 .. 2024. 9. 13.
젠RM: 구글 딥마인드의 새로운 LLM 정확도 향상 도구 구글 딥마인드가 LLM(대형 언어 모델) 응답의 정확도를 높이기 위한 혁신적인 접근법인 ‘젠RM(GenRM)’을 공개했습니다. 이 기술은 LLM이 스스로 응답을 검증하는 기능을 통해 보다 신뢰할 수 있는 결과를 도출하는 데 중점을 둡니다. 대형 언어 모델(LLM)은 다양한 응답을 생성할 수 있지만, 그 중 어떤 응답이 가장 정확한지를 판단하는 것은 여전히 어려운 과제였습니다.지금까지는 별도의 검증기나 보상 모델(RM)을 활용해 최상의 답변을 선택하는 방식이 일반적이었습니다.그러나 구글 딥마인드는 이와는 다른 접근법을 제안했습니다.젠RM의 핵심: ‘다음 토큰 예측’과 CoT 기반 검증젠RM의 핵심은 LLM의 텍스트 생성 능력을 활용해 응답을 자체적으로 검증하는 것입니다.특히, ‘다음 토큰 예측(next t.. 2024. 9. 6.
코히어, 코드 데이터가 대형언어모델(LLM) 성능을 향상시킨다는 연구 결과 발표 최근 코히어의 연구진이 발표한 논문에 따르면, 대형언어모델(LLM)의 사전 학습에 코드 데이터를 포함하면 모델의 비코드 관련 성능까지 향상된다는 흥미로운 결과가 도출되었습니다.이번 연구는 개발자들 사이에서 떠돌던 주장에 대한 실질적인 증거를 제시하며, 코드 데이터가 LLM의 전반적인 성능에 미치는 긍정적인 영향을 입증했습니다.코드 데이터가 LLM 성능에 미치는 영향코히어 연구팀은 사전 학습에 코드 데이터를 포함한 LLM이 비코드 관련 작업에서도 뛰어난 성능을 보인다는 연구 결과를 발표했습니다.연구는 텍스트만으로, 텍스트와 코드로, 코드만으로 사전 훈련된 모델들을 비교하여 이들의 성능을 평가했습니다. 1. 코드 데이터와 자연어 추론자연어 추론 작업에서, 코드 데이터로 사전 훈련된 모델이 텍스트만으로 훈련된.. 2024. 9. 1.
반응형