애플, 애플 인텔리전스 모델 기반에 Google Gemini 사용할 예정

애플이 아직 출시되지 않은 제품이나 운영체제에 대해 이런저런 이야기하는게 흔한 일은 아닌데, 어제 신기한 소식이 하나 나왔습니다. 애플이 Google의 Gemini를 사용하기로 했다는 소식이죠.

아직은 루머 수준의 이야기가 아닌가 생각했는데 애플과 구글의 공동 성명이 트위터를 통해 나왔습니다. 루머가 아니라 공식이란 이야기죠.

애플과 구글은 다년간의 협력에 합의했으며, 이에 따라 차세대 애플 파운데이션 모델은 구글의 Gemini 모델과 클라우드 기술을 기반으로 개발됩니다. 이 모델들은 올해 선보일 보다 개인화된 Siri를 포함해, 향후 Apple Intelligence 기능을 구동하는 데 활용될 예정입니다.

신중한 평가 끝에 애플은 구글의 AI 기술이 애플 파운데이션 모델을 위한 가장 뛰어난 기반을 제공한다고 판단했으며, 이를 통해 애플 사용자들에게 어떤 혁신적인 새로운 경험이 열릴지 기대하고 있습니다. Apple Intelligence는 앞으로도 애플 기기와 프라이빗 클라우드 컴퓨트(Private Cloud Compute)에서 실행되며, 업계 최고 수준의 애플 개인정보 보호 기준을 계속 유지할 것입니다.

이 공동 성명에는 약간 모호한 부분이 있습니다. 애플 파운데이션 모델이 Google Gemini와 클라우드 기술로 개발된다고 했는데, 그렇다면 지금은 확장 기능으로서 통합되어있는 ChatGPT보다는 좀 더 깊이 통합된다는 이야기일까요? 애플의 파운데이션 모델은 기기 로컬에서 실행되는데, 앞으로는 클라우드의 Gemini를 통해 실행된다는걸까요?

하지만 애플은 기존 애플 인텔리전스의 로컬 AI와 Private Cloud Compute도 계속 유지될 거라고 이야기했습니다. 그럼 Gemini와 기존 모델 간의 관계는 어떻게 되는걸까요? 공식적으로 발표된 소식인데도 아직 의문이 더 많은 느낌입니다.

발표 내용으로 봤을 때는 개인화된 Siri에 Gemini가 쓰인다, Apple Intelligence에 기능을 구동하는데 활용된다고 하니 제 생각에는 ChatGPT보다는 좀 더 깊은 레벨에서 통합될 예정인건 분명해 보입니다. 로컬 AI, Private Cloud Compute는 레거시나 일종의 옵션 같은 개념으로 사용되지 않을까 싶습니다.

개인적으로는 애플이 로컬 AI를 더 밀기를 바랐지만, 현실적으로 AI 기능이 계속 뒤처지는 것처럼 보이는건 애플에게도 좋은 시그널은 아니었을 겁니다. 일단은 업계 최고의 기능으로 애플 기기에서 AI 기능을 대폭 끌어올려야 하는게 최우선 과제였겠죠. 그런 맥락에서 Gemini를 선택한 것은 나름 적절한 선택이었던 것 같습니다.

많은 매체에서 Gemini가 탑재된 개인화된 Siri는 현재 iOS 26.4에서 출시될 것으로 보고 있습니다. 26.3은 이미 베타 테스트가 거의 마무리 되는 단계이고, 개인화된 Siri가 올 봄에 나올거라는 관측이 많았기 때문에 시기적으로 그때로 보는게 적절해 보입니다.

관건은 클라우드에서 실행되는 Gemini를 개인화된 Siri에 사용한다면 그동안 애플이 그렇게 자랑하던 개인정보 보호 문제는 어떻게 되는건가 싶은데.. 그건 실제로 어떻게 되는건지 26.4를 기다려봐야할 것 같습니다.

덧. 구글의 로컬 AI 모델인 Genma 같은걸 써서 애플 로컬 AI 모델을 업그레이드하는건 아닐까 생각해봤는데 일단 Gemini를 사용한다고 못을 박았고, 클라우드 모델에서 실행된다고 했으므로 일단 Gemini를 사용하는건 확실해 보입니다.