iOS 26.1에서 한국어에 새롭게 추가된 Apple Intelligence 기능 후기

이번에 공개된 26.1 버전 애플 운영체제 업데이트는 한국어 사용자들 한정 두가지 기능이 새롭게 추가되었습니다. 이미지 생성 인공 지능과 실시간 번역 기능입니다. 이 두가지는 그동안 영어, 중국어 등 다른 언어에서만 사용이 가능하다가 이번에 한국어에서도 사용 가능하게 되었습니다.

이미지 인공지능

이번 26.1 업데이트로 이미지 플레이그라운드와 젠모지와 같은 이미지 생성 인공지능이 새롭게 추가되었습니다.

이미지 생성 인공지능도 다른 Apple Intelligence 처럼 로컬 LLM으로 실행되어 오프라인(비행기 모드)에서도 사용할 수 있다는 특징이 있습니다. 모든 정보가 기기 내에서 처리 되기 때문에 개인정보나 민감 정보에서 안전하고 무엇보다 상당히 빠릅니다.

이미지 생성 속도 자체로만 보면 ChatGPT를 비롯해 다른 클라우드 기반 AI들에 비해 5배는 빠른 것 같습니다.(품질은 두번째치더라도) 이미지 플레이그라운드 내에서 이미지 생성을 ChatGPT에게도 요청할 수 있는데 ChatGPT로 생성하면 아이패드 기준 백그라운드 표시바가 생길 정도로 꽤 느립니다.

웃긴건 ChatGPT에서 생성할 때 스타일 자체에 “일본 애니메이션” 스타일이 있다는건데, 아예 대놓고 지브리 스타일 이미지를 생성하라는건가? 싶어서 테스트해봤는데 지브리 스타일이라기보다 전반적인 일본 아니메 스타일로 나오는 것 같습니다.

뭔가 어딘가에서 본 것 같은데(은하영웅전설? 베르사유의 장미?)

이모지를 생성하는 젠모지 기능도 사용할 수 있는데, 젠모지를 통해 생성된 이모지는 저장했다가 나중에 메시지 앱에서 사용할 수 있습니다.

이미지 생성 AI는 이미지 플레이그라운드 뿐 아니라 애플 메모 앱이나 Freeform 앱에서 사용할 수 있습니다.

메모로 대충 아무렇게나 그린 그림을 AI가 생성한 일러스트로 대체할 수 있습니다.

대충 아무렇게나 그림을 그리고, 도구에 있는 마술봉을 선택합니다.

그림 주위에서 마술봉을 휘두릅니다.

그러면 대충 그럴듯한 스케치로 바뀝니다. 마술봉으로 그림을 바꾸는 경험이 재미난데, 애플 펜슬을 쓰고 있다면 정말 마술을 부리는 느낌입니다.

마술봉으로 대충 그린 스케치를 그림으로 바꾸는건 재밌는 사용자 경험이지만 이미 다른 제조사에서는 꽤 오래 전부터 지원했던 기능이라 사실 신기한건 별로 없죠. 그럼에도 불구하고 Apple Intelligence의 특징이라면 역시 모든 것이 로컬 기반이라는 겁니다.

사실 비행기모드에서 한거였다

위에서 생성한 모든 이미지 들은 ChatGPT를 제외하고는 모두 비행기 모드를 켠 상태로 생성한 것들입니다. 인터넷 연결 없이도 AI 기능을 쓸 수 있다는건 다시 말해 이 기능 자체가 유료화되거나 비용, 횟수의 제약이 생길 가능성은 별로 없다는거죠.

클라우드 기반 AI 들은 클라우드 서버를 통해 연산된 결과를 받아오므로 서비스가 오래 지속될 수록 서버 비용이 발생할 수 밖에 없습니다. 초반에는 기기에 포함된 기능처럼 무료로 제공해도 결국 나중에는 유료화될 수 밖에 없는거죠. 윈도우의 메모장과 그림판처럼 말이죠. 하지만 로컬 AI는 기기 자체의 성능으로 생성하므로 이런 제약에서 좀 더 자유로울 수 있습니다.

하지만 역시 클라우드 기반의 요즘 AI들에 비하면 품질이 아쉬운건 사실이라.. 연산 최적화를 통해 로컬 AI 성능이 좀 더 올라와줬으면 좋겠다는 생각도 있습니다.

실시간 번역 기능 with 에어팟

이번에 한국어에 추가된 또 하나의 AI 기능은 “실시간 번역“입니다. 말 그대로 외국어를 실시간으로 그대로 번역해주는건데 에어팟4, 에어팟 프로 2, 3에서 사용할 수 있습니다.

사실 에어팟은 기기에서 나오는 음성을 전달만하는거고 실제로 번역은 아이폰에서 실행하는 겁니다. 따라서 실시간 번역 기능을 사용하려면 에어팟에서 설정하는게 아니라 아이폰에서 실행줘야 합니다.

실시간 번역 기능을 사용하려면 아이폰에서 번역 앱을 실행한 다음, “실시간” 탭을 눌러서 설정할 수 있습니다. 대상 언어와 번역 언어 모두 다운로드 해줘야 실시간 번역을 사용할 수 있습니다.

다운로드가 있다는 것만 봐도 알 수 있듯 이 기능도 로컬에서 실행되는 AI 기능입니다. 인터넷 연결 사정이 좋지 않아도 실시간 번역을 쓸 수 있는거죠.

언어 다운로드가 완료되면 에어팟을 끼고 번역 시작을 눌러서 실시간 번역을 진행할 수 있습니다.

실시간 번역을 켜고 조용한 환경에서 Peanuts 애니메이션을 실행해봤습니다. 번역을 켠 상태에서 외국어가 들리면 자동으로 노이즈 캔슬링이 활성화되며 번역음으로 변환됩니다.

일단 번역해본 결과는… 음 미묘합니다. 번역어를 이야기하는 음성도 오래된 시리의 TTS 음성 그대로인데다 위에 사진에서도 알 수 있듯 번역 퀄리티가 좀 미묘합니다. 어려운 내용도 아니고 어린이용 애니메이션인 Peanuts의 음성을 인식한건데도 말이죠.

속도도 실시간이라고 하기에는 한 두박자 정도 늦는 느낌입니다. 이걸로 실제 외국인과 이야기한다면 생각하면 서로 양해된 상황이 아니고는 좀 곤란할 것 같은 느낌이었습니다.

애플의 데모에서는 에어팟을 끼고 외국어로 미팅이 가능한 정도였는데 그런 자연스러운 흐름이 가능하려면 번역 품질과 속도에서 둘 다 개선이 필요해보였습니다. 영어에서는 이 두 문제가 없는걸지도 모르지만요.

마무리

이번 26.1 업데이트로 한국어에 추가된 Apple Intelligence 기능을 사용해봤습니다. 생각보다 한국어를 빠르게 지원해준건 고맙긴 한데, 이미지 생성도 그렇고 실시간 번역도 그렇고 아직은 약간 품질 보완이 필요해보입니다.

하지만 Apple Intelligence 답게 두 기능 다 기기 내에서 실행된다는데 장점이 있습니다. 다른 제조사의 AI는 모두 클라우드 기반이라 내 사진, 정보가 외부로 전송되지만 Apple Intelligence는 기기 내에서 모두 처리되죠. 서버 비용도 별도로 들지 않구요.

지금은 이 측면이 대중에겐 과소평가되는 측면이 있지만 로컬 AI 만의 장점이 분명 있기 때문에 결과물의 품질이 좀 더 좋아진다면 분명 주목받을만한 요소라고 생각합니다. 여기에 GPT나 Gemini 같은 클라우드 서비스 모델을 OS에 잘 결합하기만한다면 Apple Intelligence의 미래도 나쁘지만은 않지 않을까요.

덧. 개인적으로 Apple Intelligence의 로컬 모델을 기사 요약하는데 쓰고 있습니다. 기존에 기사 요약 같은 간단한 작업도 GPT API를 통해 쓰느라 토큰 비용이 꽤 들고(인풋 토큰이 꽤 들어감) 앱으로 요청하면 횟수 제한이랑 기록이 남는게 영 별로였는데 Apple Intelligence를 단축어로 통합해 쓰니 한번에 해결할 수 있었습니다.