가 자사의 기업용 AI 플랫폼 ‘버텍스 AI(Vertex AI)’의 모델과 엔터프라이즈 기능 업데이트를 대거 발표했다. 기업은 모델 조정, 증강, 커스터마이징, 확장성, 신뢰성, 보안 등 버텍스 AI가 제공하는 혁신적인 기능을 바탕으로 강력한 AI 에이전트(AI agent)를 더 빠르게 구축할 수 있을 예정이다.
는 지난 5월 프리뷰 버전으로 선보였던 ‘제미나이 1.5 플래시(Gemini 1.5 Flash)’를 공식 출시했다. 제미나이 1.5 플래시는 짧은 지연 시간과 가격 경쟁력, 획기적인 100만 토큰 컨텍스트 윈도(context window)를 결합해 리테일 기업의 채팅 에이전트부터 문서 처리, 전체 데이터를 통합 분석할 수 있는 리서치 에이전트에 이르기까지 대규모 사례에 광범위하게 사용될 수 있다.
특히 제미나이 1.5 플래시는 성능, 지연 시간, 비용 효율성 면에서 GPT-3.5 터보(GPT-3.5 Turbo)를 비롯한 동급 모델 대비 강력한 이점을 제공하며 많은 고객의 선택을 받고 있다. 제미나이 1.5 플래시는 GPT-3.5 터보 대비 60배가량 더 긴 100만 개의 토큰 컨텍스트 윈도를 제공하며, 1만 자 입력 기준 평균 40% 더 빠른 속도를 자랑한다. 또한 3만2000자 이상 입력 시 컨텍스트 캐싱(context caching) 기능으로 GPT-3.5 터보 대비 입력 비용을 최대 4배 절감시켜 준다.
최대 200만 개의 토큰 컨텍스트 윈도를 지원하는 ‘제미나이 1.5 프로(Gemini 1.5 Pro)’ 역시 정식 버전으로 출시돼 다른 모델에서는 처리하기 어려운 다양한 멀티모달(multimodal) 사례를 지원한다. 일반적으로 6분 분량의 동영상을 분석하려면 10만 개 이상의 토큰이 소요되며, 대규모 코드 베이스의 경우 100만 개 이상의 토큰이 소요된다.
는 수많은 코드 라인에서 버그를 찾거나 연구 자료에서 필요한 정보를 검색하고, 몇 시간 분량의 오디오 및 동영상을 분석하는 등 다양한 영역에서 기업이 제미나이 1.5 프로를 활용해 혁신할 수 있도록 지원한다.
는 고객이 제미나이 1.5 프로 및 제미나이 플래시 모델의 방대한 컨텍스트 윈도를 효율적으로 활용할 수 있도록 해당 모델에 컨텍스트 캐싱(context caching) 기능을 프리뷰 버전으로 제공한다. 컨텍스트의 길이가 증가하면 애플리케이션에서 응답을 얻는 데 많은 시간과 비용이 소요돼 실제 운영 환경 배포에 어려움을 겪을 수 있다.
버텍스 AI 컨텍스트 캐싱 (https://bit.ly/3xRD2Fh)(Vertex AI context caching)은 자주 사용하는 컨텍스트의 캐시 데이터를 활용해 고객이 최대 76%까지 비용을 대폭 절감할 수 있도록 돕는다. 컨텍스트 캐싱 API를 제공하는 업체는 현재 가 유일하다.
는 일부 고객을 대상으로 ‘프로비저닝 처리량(provisioned throughput)’을 제공한다. 이를 통해 고객은 제미나이 1.5 플래시를 포함한 구글 자체 모델의 사용량을 필요에 맞게 적절히 확장할 수 있으며, 모델 성능과 비용 모두에 대해 보장받을 수 있다. 이러한 버텍스 AI의 기능은 고객 워크로드에 대한 예측 가능성과 안전성을 제공해 고객이 생성형 AI 도입을 적극적으로 확대할 수 있도록 돕는다.
기업이 데이터에 대한 신뢰도를 높이고 환각 현상을 감소시키기 위해서는 모델을 넘어 데이터 거버넌스(data governance) 및 데이터 주권(data sovereignty) 등 엄격한 엔터프라이즈 기준을 충족시키는 동시에 웹, 자사 및 타사 데이터와 사실을 기반으로 모델 결과물을 그라운딩(grounding)해야 한다.
지난 5월 구글 I/O에서 버텍스 AI의 그라운딩 위드 구글 서치(Grounding with Google Search) 기능을 정식 출시 (https://bit.ly/3WgKByU)한 데 이어, 는 기업이 자사의 생성형 AI 에이전트를 특정 제공 업체의 데이터로 그라운딩할 수 있는 새로운 서비스를 올해 3분기부터 제공할 예정이라고 발표했다.
이를 통해 기업은 타사 데이터를 생성형 AI 에이전트에 통합해 고유한 사용 사례를 발굴하고, AI 경험 전반에서 엔터프라이즈 지식(enterprise truth)을 더 많이 도출할 수 있다. 는 해당 서비스 제공을 위해 무디스(Moody’s), 모건스탠리 캐피털 인터내셔널(MSCI), 톰슨 로이터(Thomson Reuters), 줌인포(Zoominfo) 등 유수의 기업과 협력 중이다.
금융업·의료계·보험업과 같은 데이터 집약적 산업에서는 생성형 AI가 일반 지식(world knowledge)이 아닌 오직 제공된 컨텍스트만을 기반으로 답변을 생성해야 하는 경우가 많다. 이러한 산업의 그라운딩을 지원하기 위해 는 ‘그라운딩 위드 하이 피델리티 모드(Grounding with High-Fidelity Mode)’를 실험적 프리뷰 버전으로 선보였다.
하이 피델리티 모드는 여러 문서를 아우르는 요약, 금융 데이터 전반에서 데이터 추출, 사전 정의된 문서 세트 처리와 같은 그라운딩 사례를 지원하기 위해 특별히 구축됐다. 또한 고객이 제공한 컨텍스트만을 사용해 답변을 생성하도록 미세 조정된 제미나이 1.5 플래시를 기반으로 구동돼 높은 사실 정확성을 보장한다.
‘이마젠 3(Imagen 3)’는 구글의 최신 이미지 생성 기반 모델로, 이마젠 2보다 여러 측면에서 개선돼 뛰어난 품질의 이미지를 구현한다. 이전 모델 대비 40% 이상 빠른 이미지 생성으로 프로토타이핑과 반복 작업을 지원하며, 프롬프트 이해 및 명령 수행 능력 개선, 실사 수준의 인물 그룹 생성, 이미지 내 텍스트 렌더링 제어 능력 등이 향상됐다.
이마젠 3는 사전 액세스 권한을 부여받은 일부 버텍스 AI 고객에게 프리뷰 버전으로 제공되며 다중 언어 지원, 구글 딥마인드의 신스ID(SynthID) 디지털 워터마킹과 같은 내장된 보안 기능, 다양한 화면 비율 지원 등의 기능을 함께 제공한다.
는 버텍스 AI에서 제공되는 엄선된 자사 모델과 오픈 모델, 타사 모델 제품군을 통해 고객에게 선택권과 혁신을 지원하는 데 최선을 다하고 있다. 최근에는 앤트로픽(Anthropic)이 새롭게 출시한 ‘클로드 3.5 소넷(Claude 3.5 Sonnet)’을 버텍스 AI에 추가했으며, 고객은 환경에서 클로드 3.5 소넷으로 테스트를 진행하거나 운영 환경에 배포할 수 있다.
올 하반기에는 미스트랄(Mistral)과의 파트너십 또한 한층 강화하며 미스트랄 스몰(Mistral Small), 미스트랄 라지(Mistral Large), 미스트랄 코드스트랄(Mistral Codestral)을 버텍스 AI의 모델 가든(Model Garden)에서 제공할 예정이다.
이 밖에도 는 제미나이 모델 개발에 활용된 동일한 연구 기술을 바탕으로 구축한 초경량의 최첨단 오픈 모델 제품군 젬마(Gemma)의 후속 모델을 발표했다.
전 세계 연구자와 개발자를 대상으로 공식 출시된 ‘젬마 2 (https://bit.ly/3zyDed2)(Gemma 2)’는 90억 개(9B)와 270억 개(27B) 파라미터 사이즈로 제공된다. 이전 버전보다 훨씬 더 강력하고 효율적이며, 개선된 보안 기능이 내장됐다. 이번 달부터 버텍스 AI에서 젬마 2를 이용할 수 있다.