구글의 오픈소스 인공지능(AI) 모델 젬마(Gemma)의 다운로드 수가 1억 5000만 회를 돌파했다. 출시된 지 1년 3개월 만이다. 빠른 성장세를 보이고 있는 가운데 메타의 라마 모델과 비교하면 이용률은 크게 뒤처져 있다는 평가다.
구글 딥마인드 AI 엔지니어인 오마르 산세비에는 12일(현지시간) 자신의 엑스(X)를 통해 "젬마는 허깅페이스에서 1억 5000만 다운로드를 기록했다"라고 밝혔다. 더불어 개발자들은 허깅페이스를 통해 7만개가 넘는 젬마 변형 모델을 개발했다고 한다.
구글은 지난해 2월 개발자를 위한 AI 모델인 '젬마'를 공개했다. 젬마는 개발자들을 위해 구글 딥마인드를 비롯한 구글 내 여러 팀이 개발한 모델로, 개발자나 기업 규모에 관계없이 사용 가능한 오픈소스 모델이다.
이후 구글은 잇따라 후속 모델을 발표하면서 개발자들을 끌어모았다. 젬마의 최신 버전은 멀티모달을 지원하며, 100개 이상의 언어를 제공한다. 더불어 구글은 특정 분야에 맞춰 미세 조정된 젬마 버전을 공개하기도 했다. 이에 약 1년 3개월 만에 1억 5000만 회가 넘는 다운로드 수를 기록했다.
구글은 오픈소스 생태계에서 기술적 입지를 넓히기 위해 꾸준히 노력하고 있지만, 메타의 라마 모델과 비교하면 아직까지 한참 뒤처져 있다는 평가가 나온다.
크리스 콕스 메타 최고제품책임자는 최근 열린 개발자 컨퍼런스 '라마콘'에서 "매달 수십만 회의 다운로드가 발생하고 있다. 수천 명의 개발자가 수만 개의 파생 모델을 만들고 있다"라고 밝힌 바 있다.
앞서 마크 저커버그 메타 최고경영자(CEO)는 지난 3월 자신의 스레드 채널을 통해 "라마(Llama)의 다운로드 수가 10억 회를 돌파했다는 사실을 알게 됐다"라고 말했다. 저커버그 CEO는 지난 1월 메타의 2024년 4분기 실적 발표를 통해 "저는 올해가 라마와 오픈소스가 가장 진보적이고 널리 사용되는 AI 모델이 되는 해가 될 것"이라고 밝혔다.
AI포스트(AIPOST) 유형동 수석기자 aipostkorea@naver.com

