|

[까다로운 IT] 애플 최초의 AI 노트북? M3 맥북 톺아보기

YouTube video

이종철의 까다로운 IT, 아닌 밤중에 M3 맥북이 갑자기 공개됐습니다. 빠르게 톺아봅니다.

우선 M3에서 가장 달라진 점, 미세 공정이 달라졌습니다. 이게 M1에서 M2로 갈 때는 미세공정이 5nm로 비슷했거든요. 그런데 M3부터는 TSMC의 3nm 공정을 사용합니다. 3nm 공정은 PC가 아닌 스마트폰에서도 겨우 쓰고 있는 최신 공정이예요. 미세 공정의 숫자가 줄어들면 같은 공간에 더 많은 트랜지스터를 넣을 수 있고요. 같은 수를 넣으면 전력 효율이 좋아집니다.

그런데 자료에서 보시면 활용 시간은 최대 18시간, 그대로죠. 그러니까 성능을 높였다 이 뜻입니다. 트랜지스터 수는 M2 대비 20~30% 늘었어요. CPU 성능도 그만큼 늘었다고 보시면 얼추 맞습니다.

애플은 발표 때 11월에 M3를 발표할 때 M2랑 비교하지 않고 M1이랑 비교를 했었죠. 그래야 더 드라마틱한 효과 변화가 나기 때문입니다. M1에서 M2로 갈 때는 설계는 비슷하고 트랜지스터 수만 늘렸기 때문에 M2에서 M3로 갈 때는 큰 변화가 없었기 때문이죠.

애플은 당시에 M1 대비 M3가 35% 더 높은 성능을 내고, 절반의 전력으로 동일한 성능을 낸다-이렇게 발표를 했죠. M1에서 M2로 갈 때 멀티코어 성능이 18% 개선됐거든요. M2에서 M3 갈 때도 비슷하게 올라갔다 이 정도로 생각하시면 됩니다. 복잡하시죠? 딱 정해드립니다. 파이널 컷, 프리미어 프로 문제없는 M1 분들, 그냥 쓰세요. 그냥 쓰십시오. 그런데 자기가 사용하는 애플리케이션이 점점 버겁다-이런 분들만 M3 가면 되는 겁니다.

자, GPU 쪽에서는 M2에서 M3 갈 때 조금 변화가 있었죠. GPU 코어 수는 당연히 늘었고요. GPU 내에서 메모리와 캐시를 분배하는 동적 캐싱이 처음 적용된 게 M3 GPU입니다. 이건 이런 거예요. 모든 작업에 비슷한 할당량을 주는 게 기존 방식인데 동적 캐싱은 작업 부하에 따라서 메모리랑 캐시를 다르게 줍니다. 원래는 한 프로젝트당 몇 명 무조건 가세요-이렇게 했던 거를 규모를 보고 순식간에 판단해서 저기는 10명, 여기는 1명, 요기는 4명 가세요. 뭐 이런 식으로 할당한다는 겁니다. 동적 캐싱 자체는 원래도 있었는데요. 주로 서버급 대규모 연산에 쓰던 거거든요. 이걸 얇은 노트북에서 상시 구동되도록 구현을 했다 이런 의미입니다. 게임에서도 유리한데, 지금 앱스토어에서 트리플A 게임이 몇개밖에 없거든요. 바이오 하자드 시리즈 몇 개 외에는 별로 없는데, 그래서 게임용으로는 아직 의미 없는 상태고, 무거운 그래픽 작업에는 의미가 있다-이렇게 말씀드리겠습니다.

메모리는 애매해요. 이 통합 메모리 구조가 애플 실리콘의 핵심이라고 할 만큼 중요한데요. CPU와 GPU가 램을 공유하기 때문에 램 성능이 중요합니다. 원래의 폰 노이만 구조에서는 CPU가 작업을 하고, GPU의 램이 이걸 복사해 와서 작업을 또 하고, 다시 보내주고 이런 과정을 거치는데 이걸 한꺼번에 처리하기 때문에 속도가 나는 거거든요. 물론 요즘은 바로 GPU 램에서 연산을 바로 처리하는 NVLink 같은 기술이 있습니다만 이게 소비자용 제품 말고 서버용 GPU에 주로 쓰이거든요. 이걸 소비자용 PC에서도 쓸 수 있다는 것이 애플 실리콘의 강점이죠.

그런데 메모리가 왜 애매하냐, M3 프로와 맥스 모델의 대역폭, 쉽게 말하면 메모리 속도가 줄었습니다. 적게는 25%, 많게는 50%까지 줄었고요. 대신 코어 수가 늘었고 동적 캐싱 같은 기술이 들어갔기 때문에 실제 속도는 차이가 없을 거라고 보고요. 이번에 출시되는 제품들은 M3 기본 모델들이에요. 그러니까 기본 모델에서는 속도 저하가 없다-이렇게만 알아두시면 되겠습니다.

자, 그리고 중요한 소식. 애플이 처음으로 AI라는 말을 썼습니다. 원래도 애플이 가장 먼저 온디바이스 AI를 쓰던 회사예요. 그런데 지금까지는 온디바이스 머신 러닝이라고 불렀죠. AI의 학습 방식이 머신 러닝입니다. 그러니까 똑같은 말인데, 애플은 지금까지 AI라는 말을 안 썼죠.

이유는 생성형 AI 때문입니다. 애플이 말하는 머신 러닝은 주로 센싱에 관한 거였어요. 페이스 ID로 얼굴 인식하고, 각종 앱을 자동화하고 이런 것들을 말했는데, 생성형 AI를 지원 안 하다 보니까 애플은 AI라는 말을 절대 쓰지 않고 있었습니다.

그런데 이번에 처음으로, AI라는 말을 자료에서 썼죠.

내용에서도 그 내용이 보입니다. 카메라 기능, 실시간 받아쓰기, 번역 이런 것들은 원래 되던 것들이니까 넘어가고요. LLM이라는 말이 있죠. 이게 생성형 AI잖아요. 이걸 이제 구동 가능하도록 준비했다-이런 말입니다. 그래서 MS 코파일럿, 캔바, 어도비 파이어플라이 이것들 대화형 혹은 이미지 생성형 AI죠. 이런 앱을 구동 가능하다는 건데, 이거 약간 이상한 이야기예요. 이 세 서비스는 클라우드 기반입니다. 온디바이스가 아니에요. 그런데 이제 우리도 클라우드나 온디바이스나 실행할 수 있다-이렇게 말하고 있는 겁니다. 그러니까 맥북 사세요, 맥북으로도 NPU 써서 개발할 수 있습니다-이런 의견을 내비친 것이죠. 심지어 원래 됐습니다. 맥북은 M1부터 NPU를 탑재하고 있었어요. 그러니까 원래 됐던 건데, 우리도 이제 LLM 학습, 가속, 구동 준비를 마쳤다, 사실 원래 되고 있었다-이런 주장을 한 겁니다. 생성형 AI가 하도 빠르게 발전하니까 애플도 슬슬 쫄리나 보네요. 쫄?

자 그 밑을 보면 더 웃깁니다.

밑에 보시면 어떤 느낌이시죠? 원래 다 되던 겁니다. 굳이 이런 걸 한번 더 쓴다 이런 거 보면 애플이 지금 수세에 약간 몰려 있다는 걸 알 수 있죠. 뭐 어쨌든 M3 성능 분명히 늘어난 게 사실이니까 처음 구매해 보시는 분들께는 아주 좋을 거고요. M1 쓰시는 분들이 바꾸기에는 약간 애매, M2 쓰시는 분들이 바꿀 필요는 없습니다.

자, 제품은 3월 8일부터 출시됐고요. 제가 M1, M2를 다 써본 상태거든요. M3 갖고 와서 한번 비교해 보도록 하겠습니다. 그럼 그때까지 구독, 좋아요, 알림 설정.

영상제작. 바이라인네트워크

촬영·편집. 바이라인네트워크 영상팀 byline@byline.network

대본. <이종철 기자>jude@byline.network

[컨퍼런스 안내] 클라우드 보안 & 제로트러스트 컨퍼런스 2024

바이라인네트워크는 올해 두드러진 사이버위협 트렌드, 클라우드 보안을 제대로 구현하는 방법과 기술을 알아보는 클라우드 보안 전문 컨퍼런스를 올해로 네번째로 개최합니다.

이번 행사에서는 하이브리드·멀티 클라우드 환경에서 보다 간소화된 방식으로 보안을 강화하고, 그 보안 수준을 유지할 수 있는 방안을 살펴봅니다. 아울러 원격 업무 환경 시대에 맞는 보안모델로 부각된 제로트러스트(ZeroTrust) 와 이를 구현하는 다양한 기술 방안, 시큐어액세스서비스 엣지(SASE), 폭발적인 변화를 부르는 AI 시대 진화된 위협 환경과 보안 방안 등을 포괄적으로 다룰 예정입니다.

  • 일시: 2024년 7월 4일 오전 9:50 ~ 오후 6:00
  • 장소: 서울 서초구 강남대로 213 양재 엘타워 6층 그레이스홀

관련 글

첫 댓글

  1. M3 npu 에서 매우 큰 중요한 심각한 아키텍쳐 변화가 있었습니다.
    딥러닝 중급 이상 실무 개발자라면 알거에요.
    그냥 기사만 어디서 퍼나르는 사람들은 모릅니다.
    중요하고 M3 로 바꿔야할 중요한 변경사항인데
    애플은 이것을 이제서야 한 것이 부끄러운지 광고를 하지 않습니다.
    그래서 사람들이 몰라요.
    기술적으로 파고 들어야 알게 되는 문제점이 있었습니다.

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다