모두보기

영어판을 공식 버전으로 해주세요돌아가기

유럽
France(Français) Germany(Deutsch) Italy(Italia) Russian(русский) Poland(polski) Czech(Čeština) Luxembourg(Lëtzebuergesch) Netherlands(Nederland) Iceland(íslenska) Hungarian(Magyarország) Spain(español) Portugal(Português) Turkey(Türk dili) Bulgaria(Български език) Ukraine(Україна) Greece(Ελλάδα) Israel(עִבְרִית) Sweden(Svenska) Finland(Svenska) Finland(Suomi) Romania(românesc) Moldova(românesc) Slovakia(Slovenská) Denmark(Dansk) Slovenia(Slovenija) Slovenia(Hrvatska) Croatia(Hrvatska) Serbia(Hrvatska) Montenegro(Hrvatska) Bosnia and Herzegovina(Hrvatska) Lithuania(lietuvių) Spain(Português) Switzerland(Deutsch) United Kingdom(English)
아시아 태평양
Japan(日本語) Korea(한국의) Thailand(ภาษาไทย) Malaysia(Melayu) Singapore(Melayu) Vietnam(Tiếng Việt) Philippines(Pilipino)
아프리카, 인도 및 중동
United Arab Emirates(العربية) Iran(فارسی) Tajikistan(فارسی) India(हिंदी) Madagascar(malaɡasʲ)
남아메리카 / 오세아니아
New Zealand(Maori) Brazil(Português) Angola(Português) Mozambique(Português)
북아메리카
United States(English) Canada(English) Haiti(Ayiti) Mexico(español)
5월30일에서

nvlink와 대면?Intel, AMD, Microsoft 및 Broadcom Form Ualink와 같은 기술 거인

Intel, Google, Microsoft 및 Meta를 포함한 8 개의 기술 대기업은 데이터 센터 내에서 AI 가속기 칩을 연결하는 구성 요소의 개발을 안내하기 위해 Ualink 프로모션 그룹이라는 새로운 산업 그룹을 설립하고 있습니다.


UALINK 프로모션 팀은 목요일에 설립 될 예정이며 AMD, HP Enterprise, Broadcom 및 Cisco도 포함됩니다.이 그룹은 서버에 점점 더 많은 AI 가속기 칩을 연결하기위한 새로운 산업 표준을 제안했습니다.광범위한 의미에서 AI 가속기는 GPU에서 AI 모델의 훈련, 미세 조정 및 작동을 가속화하기위한 맞춤형 솔루션으로 설계된 칩입니다.

"업계는 여러 회사가 전체 생태계에 공개 형식으로 가치를 더할 수있는 개방 표준이 필요합니다."AMD Data Center Solutions의 총괄 책임자 인 Forrest Norrod는 수요일에 "업계는 혁신이 단일 회사의 제약을받지 않고 빠른 속도로 이루어질 수있는 표준이 필요하다"고 말했다.

제안 된 표준의 첫 번째 버전 인 UALINK 1.0, 최대 1024 AI 가속기의 첫 번째 버전은 단일 컴퓨팅 포드 -GPU에만 연결됩니다.(그룹은 POD를 서버에서 하나 또는 여러 개의 랙으로 정의합니다.) UALINK 1.0은 "개방형 표준"을 기반으로하며 AMD의 무한 아키텍처를 포함합니다.AI 가속기 간의 추가 메모리를 직접로드 및 저장할 수 있으며 기존 상호 연결 사양에 비해 전반적인 속도를 개선하고 데이터 전송 대기 시간을 줄입니다.

이 그룹은 Ualink 표준의 향후 개발을 감독하기 위해 3 분기에 Alliance, Ualink Alliance를 만들 것이라고 밝혔다.Ualink 1.0은 같은 기간 동안 Alliance에 가입하는 회사에 제공되며 Ualink 1.1에 대한 대역폭 업데이트 사양이 높아집니다.2024 년 4 분기에 출시 될 예정입니다.

Norrod는 Ualink 제품의 첫 번째 배치가 "향후 몇 년 안에 출시 될 것"이라고 말했다.

현재까지 가장 큰 AI 가속기 제조업체 인 NVIDIA는 80%에서 95%의 시장 점유율이 추정되며 그룹 구성원 목록에는 분명히 결여되어 있습니다.Nvidia는 이것에 대해 언급하지 않았다.그러나이 칩 제조업체가 경쟁사 기술을 기반으로 한 사양을 지원하는 데 관심이없는 이유를 알기가 어렵지 않습니다.

첫째, NVIDIA는 데이터 센터 서버 내에서 GPU에 대한 자체 독점적 상호 연결 기술을 제공합니다.회사는 경쟁사 기술을 기반으로 표준을 기꺼이 지원하지 않을 수 있습니다.

그런 다음 Nvidia가 엄청난 힘과 영향력의 위치에서 작동한다는 사실이옵니다.

NVIDIA의 최신 회계 분기 (2025 년 1 분기)에서 AI 칩 판매를 포함한 데이터 센터 판매는 작년 같은 기간에 비해 400% 이상 증가했습니다.Nvidia가 현재 개발 궤적을 계속한다면 올해 어느 시점에서 Apple을 능가하여 세계에서 가장 귀중한 회사가 될 것입니다.

따라서 간단히 말해서 NVIDIA가 참여하고 싶지 않다면 참여할 필요가 없습니다.

Ualink에 기여하지 않은 유일한 퍼블릭 클라우드 거인 인 Amazon Web Services (AWS)는 다양한 내부 가속기 하드웨어 노력을 줄이기 때문에 대기 중 모드 일 수 있습니다.또한 클라우드 서비스 시장에 대한 통제에 의존하고 NVIDIA에 반대하는 데 전략적 중요성을 보지 못하는 AWS 일 수도 있습니다.

AWS는 TechCrunch의 의견 요청에 응답하지 않았습니다.

실제로, AMD와 Intel을 제외하고 Ualink의 가장 큰 수혜자는 Microsoft, Meta 및 Google으로 보인다. 그는 구름을 운전하고 성장하는 AI 모델을 훈련시키기 위해 NVIDIA GPU를 구매하는 데 수십억 달러를 소비 한 것으로 보인다.모든 사람은 AI 하드웨어 생태계에서 지나치게 지배적 인 공급 업체를 제거하기를 원합니다.

Google에는 AI 모델 교육 및 실행을위한 맞춤형 칩, TPU 및 Axion이 있습니다.아마존에는 여러 AI 칩 패밀리가 있습니다.Microsoft는 작년에 Maia와 Cobalt 간의 경쟁에 합류했습니다.메타는 가속기 시리즈를 개선하고 있습니다.

한편, Microsoft와 그 파트너 인 Openai는 AI 모델을 훈련시키기 위해 슈퍼 컴퓨터에 최소 1,000 억 달러를 소비 할 계획이라고보고했다.이 칩은 함께 연결하기 위해 무언가가 필요합니다. 아마도 ualink 일 것입니다.
0 RFQ
쇼핑 카트 (0 Items)
비어 있습니다.
목록을 비교하십시오 (0 Items)
비어 있습니다.
피드백

귀하의 의견이 중요합니다!Allelco에서는 사용자 경험을 소중히 여기며 지속적으로 개선하기 위해 노력합니다.
피드백 양식을 통해 귀하의 의견을 공유하십시오. 즉시 응답하겠습니다.
Allelco을 선택해 주셔서 감사합니다.

주제
이메일
메모/주석
인증 코드
파일을 업로드하려면 드래그 또는 클릭하십시오
파일 업로드
유형 : .xls, .xlsx, .doc, .docx, .jpg, .png 및 .pdf.
최대 파일 크기 : 10MB