James는 AI로의 급속한 발전으로 인해 점점 커지고 있는 문제인 에너지를 계속해서 강조했습니다. "현재의 경로는 지속 가능하지 않습니다. 우리는 미래의 데이터 센터 인프라가 업그레이드된 컴퓨팅으로 기존 공랭식 환경을 어떻게 개조하고 그리드의 가용 전력에 맞는 환경적으로 지속 가능한 새로운 데이터 센터를 구축하는지 고려해야 한다고 믿습니다. 즉, Ampere에서 우리가 가능하게 하는 것입니다."
최고 제품 책임자(CPO)인 Jeff Wittich는 전통적인 클라우드 네이티브 기능을 AI까지 통합하는 회사의 "AI 컴퓨팅"에 대한 Ampere의 비전을 공유했습니다. "Ampere CPU는 가장 인기 있는 클라우드 네이티브 애플리케이션부터 AI까지 다양한 워크로드를 실행할 수 있습니다. 여기에는 데이터 처리, 웹 서비스, 미디어 전달 등과 같은 기존 클라우드 네이티브 애플리케이션과 통합된 AI가 포함됩니다."
James와 Wittich는 또한 12채널 256 코어 CPU가 N3 프로세스 노드에 탑재될 준비가 되었다고 발표함으로써 회사의 곧 출시될 새로운 AmpereOne 플랫폼을 강조했습니다.
회사의 방향 및 비전에 대한 업데이트와 함께 올해 업데이트에는 다음과 같은 몇 가지 뉴스 하이라이트가 포함되었습니다.
● Ampere는 Qualcomm Technologies와 협력하여 Ampere CPU와 Qualcomm Cloud AI 100 Ultra를 갖춘 공동 솔루션을 확장하고 있습니다. 이 솔루션은 업계 최대의 생성 AI 모델에 대한 LLM 추론을 처리합니다.
● 회사가 곧 출시할 256 코어 AmpereOne CPU를 통해 Ampere의 12채널 플랫폼을 확장합니다. 기존 192 코어 AmpereOne CPU와 동일한 공냉식 열 솔루션을 활용하고 이국적인 플랫폼 설계 없이 현재 시장에 있는 어떤 CPU보다 40% 이상 더 높은 성능을 제공합니다. 이 회사의 192코어 12채널 메모리 플랫폼은 올해 말에도 출시될 것으로 예상됩니다.
● Meta의 Llama 3가 이제 Oracle Cloud의 Ampere CPU에서 실행되고 있다는 업데이트입니다. 성능 데이터에 따르면 GPU 없이 128 코어 Ampere Altra CPU에서 Llama 3를 실행하면 x86 CPU와 쌍을 이루는 Nvidia A10 GPU와 동일한 성능을 제공하면서 전력의 1/3을 사용하는 것으로 나타났습니다.
● AI Platform Alliance의 일부로 UCIe 실무 그룹 구성을 발표했습니다. 그 일환으로 회사는 개방형 인터페이스 기술을 활용하여 다른 고객 IP를 향후 CPU에 통합할 수 있도록 함으로써 CPU의 유연성을 구축할 것이라고 밝혔습니다.
● AmpereOne 성능과 OEM 및 ODM 플랫폼에 대한 새로운 세부 정보를 제공했습니다. AmpereOne은 AMD Genoa를 50%, Bergamo를 15% 앞지르는 등 Ampere의 와트당 성능 리더십을 계속해서 이어가고 있습니다. 공간, 예산, 전력을 회수하기 위해 기존 인프라를 새로 고치고 통합하려는 데이터 센터의 경우 AmpereOne은 랙당 최대 34% 더 많은 성능을 제공합니다.
● 새로운 AmpereOne OEM 및 ODM 플랫폼이 몇 달 내에 출시될 것이라고 공개했습니다.
● OpenAI의 Whisper 모델을 사용하여 여러 언어에 걸쳐 40개 스트림에 대한 실시간 자막과 함께 360개 라이브 채널을 동시에 트랜스코딩하기 위해 회사의 Quadra T1U 비디오 처리 칩과 Ampere CPU를 사용하는 NETINT와의 공동 솔루션을 발표했습니다.
● 메모리 태깅, QOS 적용 및 메시 혼잡 관리와 같은 기존 기능 외에도 회사는 고객이 동일한 SKU를 사용하여 확장 및 확장 사용 사례를 모두 처리할 수 있는 새로운 FlexSKU 기능을 공개했습니다. |