AI에 뒤쳐져 있다는 대중의 인식을 뒤집기 위해 iOS 18 부터 Apple Intelligence 라는 이름의 생성형 AI 기능이 도입되었습니다. 일단 미국 영어부터 도입되었고 다른 언어로는 서서히 도입될 예정입니다.
iOS 18이 출시된지도 벌써 4개월 정도 지났지만 Apple Intelligence에 대한 반응은 “Meh” 인 것 같습니다. 이미 OpenAI 등에서 출시했던 AI 기능과 크게 다르지 않았고 크게 유용하지도 않았으며 몇가지 이미지 생성 기능은 그냥 보여주기 식에 지나지 않았습니다.
ChatGPT나 Claude, Gemini 등등에 비하면 그리 대단한 기능도 아닌데, Apple Intelligence는 왜 그렇게 오래걸렸고, 실행할 수 있는 기기도 제한적일까요? 그건 애플의 똥고집 때문입니다.
Apple Intelligence에 얽혀 있는 애플의 똥고집은 이겁니다.
AI 기능은 최대한 로컬에서 실행되어야 한다.
AI 서비스의 종류
AI 서비스에는 크게 두가지 종류가 있습니다. ChatGPT 같이 클라우드에서 실행되는 서비스가 있고, 기기 자체의 컴퓨팅 파워를 이용해 실행되는 서비스가 있습니다.
현재의 생성형 AI는 LLM(대량 언어 모델)에 기초하고 있고, 이 LLM은 엄청나게 무겁고 컴퓨팅 파워가 많이 필요합니다. 그래서 대부분의 AI 서비스는 클라우드의 컴퓨터 자원을 이용해 실행됩니다. 심지어 AI PC라고 부르는 제품들마저도 대부분의 AI 기능은 이 클라우드를 이용해 실행됩니다.
Apple Intelligence가 다른 AI 서비스와 대비되는 지점이 바로 이 부분인데, Apple Intelligence는 대부분의 AI 기능을 사용자의 디바이스 내에서 실행합니다. LLM보다 작지만 최적화된 언어 모델을 기반으로 하고 있어 아이폰의 하드웨어 내에서도 실행이 가능합니다. 기기 내에서 실행되니 보안에 장점이 있지만 기능이 제한적이라는 단점이 있습니다.
애플이 가지 않은 길
여기서 중요한건 애플이 Apple Intelligence를 로컬 AI로 만든 이유입니다. 왜 애플은 Apple Intelligence를 기기에서만 실행되는 방식으로 만든걸까요.
애플도 Apple Intelligence를 클라우드 기반으로 만들 수 있었을겁니다. 일부 기능은 이미 클라우드의 자원을 쓰고 있기도 하구요. 만약 그랬다면 애플워치에서도 간단하게 Apple Intelligence 기능을 쓸 수도 있었겠죠. 이용할 수 있는 기기의 숫자도 대폭 늘었을 겁니다.
하지만 애플은 그 길을 선택하지 않았습니다. 어떻게 보면 더 쉬울 수도 있는 길인데 말이죠. 애플 기기 성능이 좋아서 그랬을까요? 하지만 시중엔 GPU나 NPU 성능이 더 좋은 윈도 기반의 컴퓨터가 더 많을겁니다.
어찌보면 클라우드로 빠르게 구축해서 Apple Intelligence 사용자를 더 많이 만드는게 유리할 수도 있는데 애플은 그렇게 하지 않았습니다.
아이폰4s의 추억
전 애플이 Apple Intelligence를 로컬에서 실행하기로 선택한걸 보면서 결국 아직도 애플의 본질은 하드웨어 회사구나라는 생각을 했습니다.
윈도우 진영의 AI PC 또는 Copilot+ PC는 좋은 마케팅 요소지만 대부분의 AI 기능은 클라우드에서 실행되는 기능들입니다. 즉 AI PC를 쓰나 일반 PC를 쓰나 본질적으로 다를바가 없습니다. 윈도 진영의 AI 기능은 소프트웨어 기능이자 서비스의 일종이지, 하드웨어에 종속된 기능이 아닙니다.
Apple Intelligence는 소프트웨어로 구현되는 하드웨어 기능입니다. 아이폰 17은 못 쓰지만 아이폰 17 프로는 쓸 수 있습니다. Apple Intelligence를 쓰려면 특정 성능 이상의 애플 기기가 필요합니다. “서비스”가 아니라 하드웨어에 종속된 ”기능“이라는거죠.
서비스는 많은 사람들이 쓸 수록 유리합니다. 반면 기능은 차별화를 이끌어낼 수록 하드웨어를 구매해야하는 이유가 됩니다. 애플은 Apple Intelligence를 카메라나 Face ID 같은 요소로 취급하고 있는겁니다.
애플이 이런 짓을 처음한건 아닙니다. 아이폰4s는 기능이나 성능적으로 아이폰4와 거의 다를 바가 없었는데 딱 하나, “시리” 호출 기능이 차이점이었습니다. 스티브 잡스가 포장을 잘해서 그렇지 사실 시리 딱 하나를 새로운 기능으로 내놓은겁니다.
Apple Intelligence 도 아이폰4s 때의 시리와 다를 바가 없는거죠.
애플의 똥고집
하지만 위에 나온 평가처럼 Apple Intelligence는 대중의 눈 높이를 맞추기엔 너무 부족합니다. 이미 많은 사용자들이 애플 디바이스에서 생성형 AI 서비스를 이용하고 있고 대부분 Apple Intelligence 보다 훨씬 뛰어납니다.
애플은 로컬에서 실행되는 AI 기능이라는 것을 강조하기 위해 개인정보를 강조하고 있지만 크게 먹히는 것 같지는 않습니다. 생성형 AI의 태초라고 볼 수 있는 지금의 사용자들은 얼마나 AI가 책임을 다하느냐보다는 이걸로 뭘 할 수 있는지에 더 관심이 많으니까요.
벌써 Apple Intelligence 도입 후 유일하게 좋은 점은 맥의 기본형 제품들이 16기가 메모리를 탑재하게 된거라는 이야기가 나오고 있습니다. 대부분 비아냥이죠. 과도한 마케팅에 비해 결과물이 평이하니 나오는 당연한 반응입니다.
애플이 조금 더 유연한 선택을 했다면 어땠을까요? 초기엔 클라우드 서비스 형태로 접근해 좀 더 많은 기기에서 이용할 수 있게 했다면? 그리고 소규모 언어 모델이 좀 더 최적화되고 기기의 성능이 좀 더 올라가게 되었을 때 로컬 AI를 도입했다면?
애플워치에서도 AI 기능이 강화된 Siri를 사용할 수 있고, 좀 더 오래된 맥에서도 Xcode의 코드 어시스트 기능을 사용할 수 있었다면 어땠을까요? 만약 그랬다면 널리 퍼져 있는 애플 디바이스의 힘으로 AI에서 좀 더 중추적인 역할을 할 수도 있지 않았을까요? 지금보다는 좀 더 다양하고 강력한 기능들을 사용할 수 있지 않았을까요?
하지만 애플은 그 길을 가지 않았습니다.
마무리
물론 로컬 AI에는 장점이 많습니다. 일단 모든 데이터가 기기 내에서 처리된다는 점, 서버 상태와 상관 없이 이용할 수 있다는 점, 그리고 탄소 저감 차원에서도 훨씬 유리합니다. 전 그 점에서 지금의 클라우드 모델은 디바이스의 컴퓨팅 성능이 향상되면 현재 클라우드 기반의 AI가 하는 일 모두 로컬 AI로 모두 대체 될거라고 봅니다.
하지만 애플의 선택은 조금 이르지 않았나 싶습니다. 물론 최초로 로컬 AI를 대대적으로 도입한 플랫폼이라는 점에서는 선구자적인 측면이 있긴 하지만, 여러 아쉬운 평가를 보면.. 하드웨어 회사스러운 딱딱한 선택이 아니라 좀 더 유연한 선택을 할 수도 있지 않았을까 하는 아쉬움이 남습니다.
뭐 물론 실제로 한국어로 써봐야 좀 더 정확한 평가가 가능하겠죠. 올해 상반기 안에 한국어도 Apple Intelligence로 이용할 수 있을 예정이라고 하니 기대가 됩니다.