2024 | 09 | 18
23.3℃
USD$ 1,335.3 -0.6
EUR€ 1,479.6 -5.4
JPY¥ 921.8 7.4
CNH¥ 187.6 -0.0
  • 공유

  • 인쇄

  • 텍스트 축소
  • 확대
  • url
    복사

메타, 챗GPT 대항마 꺼냈다…'라마' 공개

  • 송고 2023.02.27 08:51 | 수정 2023.02.27 09:05
  • EBN 김채린 기자 (zmf007@ebn.co.kr)

마크 저커버그 메타CEO "LLM, 가능성 보여줘"

라마, 오픈소스 공개…"인공지능 커뮤니티 협력"

메타 ⓒ연합

메타 ⓒ연합

메타가 대규모 인공지능(AI) 언어 모델(LLM·Large Language Model)을 발표했다. 사람처럼 묻고 답하는 챗GPT 열풍에 구글에 이어 메타도 자사 모델을 선보이며 생성형 인공지능 경쟁이 심화되고 있다.


25일(현지시각) 마크 저커버그 메타 최고경영자(CEO)는 자신의 페이스북을 통해, '라마(LLaMa.Large Language Model Meta AI)'라는 이름의 대규모 인공지능 언어 모델을 개발자들에게 공개한다고 밝혔다.


메타는 라마를 다른 연구자나 엔지니어들이 이용할 수 있도록 '오픈소스'로 공개한다. 이는 챗지피티 엔진이랄 수 있는 오픈AI 'GPT-3.0'과 구글의 '람다'는 소스코드가 공개되지 않는 것과 다르다. 메타는 오픈소스 공개 방침에 대해 "인공지능 커뮤니티가 무엇을 배우고 구축할 수 있을지 협력하길 기대한다"고 말했다.


저커버그는 "LLM은 텍스트 생성과 대화, 문서 요약부터 수학 정리, 단백질 구조 예측과 같은 더 복잡한 작업에 이르기까지 가능성을 보여줬다"며 "라마는 연구자들의 업무를 돕기 위해 오픈소스 형태로 제공할 것이다"고 설명했다. 엘엘엠은 사람이 말하고 쓰는 것과 유사한 문장을 생성하는 인공지능 툴로, 챗GPT 같은 서비스를 구동하는 기반으로 활용될 예쩡이다.


라마는 엘엘엠에서 가장 중요한 매개변수(파라미터) 수를 70억개, 130억개, 330억개, 650억개 등으로 나눠서 운영할 수 있다. 이는 GPT-3.0의 매개변수 1750억개보다 적다. 매개변수란 인공지능이 정확한 결과 값을 만들기 위해 계산에 고려해야 하는 다양한 변수(가중치·절편)로, 그 수가 클수록 추론 능력이 향상되고 더 정교한 모델이 된다. 다만, 매개변수는 적은 대신 사용 용량이 다른 모델의 10분의 1 수준이라 스마트폰 같은 개인 단말기에서도 활용도가 높아질 수 있다.


메타는 연구 시뮬레이션 결과를 공개하며, 실제 성능이 챗지피티에 뒤지지 않는다고 강조했다. 자체 조사 결과, 매개변수 650억개 기준으로 라마의 수리추론 능력 등 대부분의 평가 지표에서 GPT-3.0을 앞선다고 덧붙이기도 했다.


메타 가세로 구글과 마이크로소프트(MS)를 중심으로 전개되던 생성형 인공지능 경쟁이 더 뜨거워질 것으로 보인다. MS가 챗GPT를 개발한 오픈AI와 투자 협약을 맺고 자사 검색 누리집 ‘빙(Bing)’에 챗지피티를 탑재하기로 하자, 구글은 새로운 인공지능 검색 시스템 '바드'를 공개하며 맞불을 놓았다. 오픈에이아이가 올해 안에 매개변수를 더 늘린 GPT-4.0을 공개할 예정인 가운데, 구글은 심각한 위기 상황에 대한 경고인 '코드 레드'를 발령하고 모든 업무의 초점을 인공지능 서비스 개발에 맞추고 있다.


바이두와 알리바바 등 중국 기업과 네이버·카카오 등 국내 빅테크 기업도 생성형 인공지능 개발에 박차를 가하고 있다. 시장조사업체 그랜드뷰리서치 조사에 따르면 전 세계 생성형 인공지능 시장은 2022년 101억달러(12조4219억원)에서 2030년에는 1093억달러(134조4280억원)으로 커질 전망이다.



©(주) EBN 무단전재 및 재배포 금지

전체 댓글 0

로그인 후 댓글을 작성하실 수 있습니다.
EBN 미래를 보는 경제신문