Naghahanda ang Amazon upang ilunsad ang pinakabagong artipisyal na Intelligence (AI) chip habang ang malaking konglomerya ng tech ay naglalayong umani ng mga pagbabalik mula sa bilyun -bilyong dolyar sa mga pamumuhunan ng semiconductor at bawasan ang pag -asa sa pinuno ng merkado na NVIDIA.
Ang mga executive ng cloud computing division ng Amazon ay namuhunan nang labis sa mga pasadyang chips, na umaasa na mapabuti ang kahusayan ng dose -dosenang mga sentro ng data at sa huli ay mabawasan ang mga gastos para sa sarili at mga customer ng Amazon AWS.
Ang gawaing ito ay pinamumunuan ng Annapurna Labs, isang chip startup na nakabase sa Austin, na nakuha ng Amazon sa halagang $ 350 milyon noong unang bahagi ng 2015. Ang pinakabagong mga nagawa ni Annapurna ay inaasahang maipakita sa Disyembre, kung ipapahayag ng Amazon ang laganap na pagkakaroon ng "Trainium 2", na kung saanay bahagi ng isang serye ng AI chip na idinisenyo upang sanayin ang pinakamalaking mga modelo.
Ang Trainium 2 ay sumasailalim sa pagsubok ng Anthropic (katunggali ng OpenAi, na nakatanggap ng $ 4 bilyon na suporta mula sa Amazon), pati na rin ang VNET, Deutsche Telekom, Ricoh Japan, at Stockmark.
Nilalayon nina Amazon AWS at Annapurna na makipagkumpetensya sa NVIDIA, na naging isa sa mga pinakamahalagang kumpanya sa mundo dahil sa nangingibabaw na posisyon nito sa merkado ng AI chip.
Inaasahan naming maging ang pinakamahusay na lugar upang patakbuhin ang mga chips ng NVIDIA, "sabi ni Dave Brown, bise presidente ng computing at mga serbisyo sa network sa Amazon Aws. Ngunit sa parehong oras, naniniwala kami na ang pag -ampon ng mga alternatibong solusyon ay kapaki -pakinabang," sabi ni Amazon, na nagsasabi na iyonAng iba pang mga propesyonal na AI chip na "inferentia" ay nabawasan ang mga gastos sa operating ng 40% at maaaring magamit para sa tumutugon na mga modelo ng AI.
Inaasahan ngayon ng Amazon ang mga paggasta ng kapital na humigit -kumulang na $ 75 bilyon noong 2024, na may karamihan sa pagpunta sa imprastraktura ng teknolohiya.Sa pinakabagong tawag sa kumperensya ng kita ng kumpanya, sinabi ng CEO na si Andy Jassy na inaasahan niyang magkaroon ng mas maraming gastos ang kumpanya noong 2025.
Ito ay isang pagtaas mula sa buong taon na paggasta ng 48.4 bilyong dolyar ng US noong 2023. Ang pinakamalaking tagapagbigay ng ulap, kabilang ang Microsoft at Google, ay namuhunan nang labis sa artipisyal na katalinuhan, at ang kalakaran na ito ay nagpapakita ng kaunting pag -sign ng panghihina.
Ang Amazon, Microsoft, at Meta ay lahat ng mga pangunahing customer ng NVIDIA, ngunit dinisenyo din nila ang kanilang sariling mga data center chips upang ilatag ang pundasyon para sa AI paglago ng alon na inaasahan nila.
Sinabi ni Daniel Newman mula sa Futurum Group, "Ang bawat malaking tagapagbigay ng ulap ay masidhi na lumilipat patungo sa higit na pag -verticality, at kung maaari, lumipat patungo sa isang homogenous at integrated 'chip na teknolohiya' stack
Itinuro ni Newman na "mula sa OpenAi hanggang Apple, ang lahat ay naghahangad na magtayo ng kanilang sariling mga chips" dahil naghahanap sila ng "mas mababang mga gastos sa produksyon, mas mataas na mga margin ng kita, mas mataas na pagkakaroon, at higit na kontrol".
Matapos simulan ang pagbuo ng "nitro" security chip para sa AWS, ang Annapurna ay nakabuo ng ilang henerasyon ng graviton, isang braso na batay sa sentral na pagproseso ng yunit (CPU) na nagbibigay ng isang mababang lakas na alternatibo sa tradisyonal na server mainframes na ibinigay ng Intel o AMD.
Sinabi ng analyst ng TechInsights na si G Dan Hutcheson, 'Ang isang pangunahing bentahe ng AWS ay ang kanilang mga chips ay maaaring gumamit ng mas kaunting lakas, at ang kanilang mga sentro ng data ay maaaring maging mas mahusay,' sa gayon binabawasan ang mga gastos.Sinabi niya na kung ang Graphics Processing Unit (GPU) ng NVIDIA ay isang malakas na tool na pangkalahatang layunin (para sa mga kotse tulad ng mga bagon ng istasyon), kung gayon ang Amazon ay maaaring mai-optimize ang mga chips nito para sa mga tiyak na gawain at serbisyo (tulad ng mga compact o hatchback na kotse).
Gayunpaman, sa ngayon, ang AWS at Annapurna ay bahagya na humina ang nangingibabaw na posisyon ng Nvidia sa imprastraktura ng AI.
Ang kita ng AI Data Center ng NVIDIA ay umabot sa $ 26.3 bilyon sa ikalawang quarter ng piskal na taon 2024. Ang figure na ito ay pareho sa kita ng buong AWS Division na inihayag ng Amazon sa ikalawang quarter nito.Naiulat na ang isang maliit na bahagi lamang nito ay maaaring maiugnay sa mga customer na nagpapatakbo ng AI Workloads sa Annapurna Infrastructure.
Tulad ng para sa hilaw na pagganap ng AWS chips at NVIDIA chips, iniiwasan ng Amazon ang mga direktang paghahambing at hindi isumite ang kanilang mga chips sa mga independiyenteng benchmark ng pagganap.
Naniniwala ang Moor Insights & Strategy Chip Consultant na si Patrick Moorhead na ang pag-angkin ng Amazon ng isang 4-tiklop na pagpapabuti ng pagganap sa pagitan ng Trainium 1 at Trainium 2 ay tumpak, dahil maraming taon na niyang suriin ang kumpanya.Ngunit ang data ng pagganap ay maaaring hindi mahalaga tulad ng pagbibigay lamang ng mga customer ng mas maraming mga pagpipilian.
Pinahahalagahan ng mga tao ang lahat ng mga pagbabago na dinala ng NVIDIA, ngunit walang nais na makita ang NVIDIA na sumakop sa 90% ng pagbabahagi ng merkado, "dagdag niya."Ang sitwasyong ito ay hindi magtatagal