Root NationArtiklerVirksomhederFra CUDA til AI: Secrets of Success NVIDIA

Fra CUDA til AI: Secrets of Success NVIDIA

-

NVIDIA - det første selskab i chipindustriens historie, hvis kapitalisering oversteg en billion dollars. Hvad er hemmeligheden bag succes?

Jeg er sikker på, at mange af jer har hørt om virksomheden NVIDIA og de fleste af jer forbinder det specifikt med grafikprocessorer, fordi sætningen "NVIDIA GeForce" er blevet hørt af næsten alle.

NVIDIA

NVIDIA for nylig skrevet finansiel historie i it-branchen. Det er det første integrerede kredsløbsselskab, hvis markedsværdi har oversteget en billion dollars. Det er også den femte teknologirelaterede virksomhed i historien, der opnår så stor en succes (efter markedsværdi). Tidligere var det kun folk, der kunne prale af så høj en vurdering Apple, Microsoft, Alphabet (ejer af Google) og Amazon. Derfor kaldte finansfolk det nogle gange for "Club of Four", som nu er blevet udvidet NVIDIA.

Derudover er det med hensyn til markedsværdi langt bagefter AMD, Intel, Qualcomm og andre teknologivirksomheder. Dette ville ikke have været muligt uden virksomhedens visionære politik, som blev indført for et årti siden.

Læs også: Er der en fremtid for Elon Musks TruthGPT?

Utrolig efterspørgsel efter NVIDIA H100 Tensor Core

Hvad er hemmeligheden bag en sådan stigning i kapitalisering? Først og fremmest er dette børsens reaktion på chippens succes NVIDIA H100 Tensor Core, som er i høj kurs blandt førende udbydere af cloud-infrastruktur og online-tjenester. Disse chips er købt af Amazon, Meta og Microsoft (til sine egne behov og behovene hos sin partner - virksomheden OpenAI). De er særligt energieffektive til at accelerere beregninger, der er typiske for generativ kunstig intelligens, såsom ChatGPT eller Dall-E. Dette er et utroligt spring af en størrelsesorden for accelereret databehandling. Vi får hidtil uset ydeevne, skalerbarhed og sikkerhed til enhver arbejdsbyrde med NVIDIA H100 Tensor Core GPU.

NVIDIA-H100-Tensorkerne

Brug af et skiftesystem NVIDIA NVLink kan tilsluttes op til 256 H100 GPU'er for at accelerere arbejdsbelastninger i exa-skala. GPU'en inkluderer også en dedikeret Transformer Engine til løsning af sprogmodeller med billioner af parametre. H100's kombinerede teknologiske innovationer kan accelerere store sprogmodeller (LLM'er) med utrolige 30x sammenlignet med den forrige generation, hvilket leverer brancheførende konversations-AI. Udviklerne anser det for næsten ideelt til maskinlæring.

- Annonce -

H100 dukkede dog ikke op ud af ingenting. Og for at sige sandheden er det ikke specielt revolutionerende. NVIDIA, som ingen anden virksomhed, har investeret enorme ressourcer i kunstig intelligens i mange år. Som følge heraf kan en virksomhed, der primært er tilknyttet GeForce-grafikkortmærket, behandle forbrugermarkedet nærmest som en hobby. Dette bygger trods alt reel magt på markedet for it-giganter NVIDIA kan allerede tale med dem som ligeværdige.

Også interessant: Hvad er 6G-netværk, og hvorfor er de nødvendige?

Er kunstig intelligens fremtiden?

I dag er næsten alle overbevist om dette, selv skeptiske eksperter på dette område. Nu er det nærmest et aksiom, en truisme. Selvom NViDIA vidste om det for 20 år siden. Overraskede jeg dig?

Teknisk set den første tætte kontakt NVIDIA med kunstig intelligens skete i 1999, da GeForce 256-processoren dukkede op på markedet, i stand til at accelerere maskinlæringsberegninger. Imidlertid NVIDIA begyndte for alvor at investere i kunstig intelligens først i 2006, da det introducerede CUDA-arkitekturen, som gjorde det muligt at bruge grafikprocessorernes parallelle behandlingsmuligheder til træning og forskning.

NVIDIA-CUDA

Hvad er CUDA? Det er bedst defineret som en parallel computerplatform og applikationsprogrammeringsgrænseflade (API), der gør det muligt for software at bruge grafikprocessorenheder til generelle formål (GPGPU'er). Denne tilgang kaldes generel databehandling på GPU'er. Derudover er CUDA et softwarelag, der giver direkte adgang til det virtuelle instruktionssæt og parallelle computerelementer i grafikprocessoren. Det er designet til at arbejde med programmeringssprog som C, C++ og Fortran.

Det er denne tilgængelighed, der gør det nemmere for parallelle udviklere at drage fordel af GPU-ressourcer, i modsætning til tidligere API'er som Direct3D og OpenGL, som krævede avancerede grafikprogrammeringsfærdigheder.

NVIDIA-CUDA

Et vigtigt gennembrud var virksomhedens levering NVIDIA computerkraft til det banebrydende AlexNet neurale netværk. Det er et konvolutionelt neuralt netværk (CNN), udviklet af ukrainske Alex Kryzhevskyi i samarbejde med Ilya Sutzkever og Jeffrey Ginton.

Convolutional Neural Networks (CNN'er) har altid været den foretrukne model for objektgenkendelse - de er kraftfulde modeller, der er nemme at kontrollere og endnu nemmere at træne. De oplever ikke overfitting i nogen alarmerende grad, når de bruges på millioner af billeder. Deres ydeevne er næsten identisk med standard feed-forward neurale netværk af samme størrelse. Det eneste problem er, at de er svære at anvende på billeder i høj opløsning. Omfanget af ImageNet krævede innovationer, der ville være optimeret til GPU'er og reducere træningstiden og samtidig forbedre ydeevnen.

AlexNet

Den 30. september 2012 deltog AlexNet i ImageNet Large Scale Visual Recognition Challenge. Netværket opnåede en score på 15,3 % i de fem bedste fejltest, over 10,8 % lavere end scoren på andenpladsen.

Hovedkonklusionen fra det originale arbejde var, at modellens kompleksitet skyldtes dens høje ydeevne, som også var meget beregningsmæssigt dyr, men blev muliggjort ved brug af grafikprocessorenheder (GPU'er) under træningsprocessen.

Det AlexNet-konvolutionelle neurale netværk består selv af otte lag; de første fem er foldningslag, hvoraf nogle er forudgået af maksimalt koblede lag, og de sidste tre er fuldt forbundne lag. Netværket, bortset fra det sidste lag, er opdelt i to kopier, der hver kører på en enkelt GPU.

- Annonce -

Altså takket være det NVIDIA og stadig mener de fleste eksperter og videnskabsmænd, at AlexNet er en utrolig kraftfuld model, der er i stand til at opnå høj nøjagtighed på meget komplekse datasæt. AlexNet er den førende arkitektur til enhver objektdetekteringsopgave og kan have meget brede applikationer i computersynssektoren til problemer med kunstig intelligens. I fremtiden kan AlexNet blive brugt mere end CNN inden for billedbehandling.

Også interessant: Bluesky-fænomenet: hvilken slags service og er det i lang tid?

Kunstig intelligens findes ikke kun i laboratorier og datacentre

В NVIDIA så store perspektiver for kunstig intelligens også i teknologierne til forbrugerenheder og tingenes internet. Mens konkurrenter lige er begyndt at overveje at investere mere bredt i en ny type integreret kredsløb, NVIDIA arbejder allerede på deres miniaturisering. Tegra K1-chippen, der er udviklet i samarbejde med Tesla og andre bilfirmaer, er nok særligt vigtig.

NVIDIA-Tegra-K1

Tegra K1-processoren er en af ​​de første processorer NVIDIA, designet specielt til AI-applikationer i mobile og indlejrede enheder. Tegra K1 bruger den samme GPU-arkitektur som serien af ​​grafikkort og systemer NVIDIA GeForce, Quadro og Tesla, som giver høj ydeevne og kompatibilitet med grafik- og computerstandarder som OpenGL 4.4, DirectX 11.2, CUDA 6.5 og OpenCL 1.2. Takket være dette kan Tegra K1-processoren understøtte avancerede kunstig intelligens-algoritmer såsom dybe neurale netværk, forstærkningslæring, billed- og talegenkendelse og dataanalyse. Tegra K1 har 192 CUDA-kerner.

I 2016 NVIDIA udgivet en række Pascal-processorer, der er optimeret til at understøtte dybe neurale netværk og andre kunstig intelligens-modeller. Inden for et år dukkede en række Volta-processorer til applikationer relateret til kunstig intelligens op på markedet, som er endnu mere effektive og energibesparende. I 2019 NVIDIA køber Mellanox Technologies, en producent af højtydende computernetværk til datacentre og supercomputere.

NVIDIA

Som et resultat bruger de alle processorer NVIDIA. På forbrugermarkedet bruger spillere for eksempel den revolutionerende DLSS billedgenopbygningsalgoritme, som giver dem mulighed for at nyde skarpere grafik i spil uden at bruge mange penge på et grafikkort. På erhvervsmarkedet er det anerkendt, at chips NVIDIA på mange måder ud over, hvad konkurrenterne tilbyder. Selvom det ikke er, at Intel og AMD sov fuldstændig igennem den intellektuelle revolution.

Også interessant: De bedste værktøjer baseret på kunstig intelligens

Intel og AMD inden for kunstig intelligens

Lad os tale om direkte konkurrenter NVIDIA i dette markedssegment. Intel og AMD arbejder her mere og mere aktivt, men med en lang forsinkelse.

Intel har opkøbt flere AI-virksomheder såsom Nervana Systems, Movidius, Mobileye og Habana Labs for at styrke sin portefølje af AI-teknologier og -løsninger. Intel tilbyder også hardware- og softwareplatforme til kunstig intelligens, såsom Xeon-processorer, FPGA'er, NNP-chips og optimeringsbiblioteker. Intel arbejder også med partnere i den offentlige og private sektor for at fremme AI-innovation og -uddannelse.

Intel og AMD

AMD har udviklet en serie af Epyc-processorer og Radeon Instinct-grafikkort, der er optimeret til AI og deep learning-applikationer. AMD arbejder også med virksomheder som Google, Microsoft, IBM og Amazon, der leverer cloud-løsninger til kunstig intelligens. AMD stræber også efter at deltage i AI-forskning og -udvikling gennem partnerskaber med akademiske institutioner og brancheorganisationer. Det er dog alt sammen meget godt NVIDIA allerede langt foran dem, og dens succes inden for udvikling og support af AI-algoritmer er usammenlignelig større.

Også interessant: Oversigt over Google I/O 2023: Android 14, Pixel og masser af AI

NVIDIA har været forbundet med videospil i årtier

Dette skal heller ikke glemmes. NVIDIA giver ikke en nøjagtig opdeling af sine indtægter mellem forbruger- og erhvervsmarkedet, men de kan estimeres baseret på de driftssegmenter, som virksomheden oplyser i sit regnskab. NVIDIA adskiller fire driftssegmenter: spil, professionel visualisering, datacentre og biler.

NVIDIA

Det kan antages, at spilsegmentet hovedsageligt er fokuseret på forbrugermarkedet, da det omfatter salg af GeForce-skærmkort og Tegra-chips til spillekonsoller. Det professionelle visualiseringssegment er hovedsageligt fokuseret på erhvervsmarkedet, da det omfatter salg af Quadro-skærmkort og RTX-chips til arbejdsstationer og professionelle applikationer. Datacentersegmentet er også hovedsageligt fokuseret på erhvervsmarkedet, da det omfatter salg af GPU'er og NPU'er (det vil sige næste generations chips - ikke længere GPU'er, men udelukkende designet til AI) til servere og cloud-tjenester. Bilsegmentet retter sig mod både forbruger- og erhvervsmarkeder, da det omfatter salg af Tegra- og Drive-systemer til infotainment og autonom kørsel.

NVIDIA

Baseret på disse antagelser er det muligt at estimere andelen af ​​indtægter fra forbruger- og erhvervsmarkeder i den samlede omsætning NVIDIA. Ifølge den seneste regnskabsrapport for år 2022 er virksomhedens omsætning NVIDIA fordelt på driftssegmenter var som følger:

  • Spil: 12,9 milliarder dollars
  • Professionel visualisering: 1,3 milliarder dollars
  • Datacentre: $9,7 milliarder
  • Biler: 0,8 milliarder dollars
  • Alle andre segmenter: $8,7 milliarder

Total indkomst NVIDIA udgjorde $33,4 milliarder Hvis vi antager, at bilsegmentet er fordelt omtrent ligeligt mellem forbruger- og erhvervsmarkedet, kan følgende proportioner beregnes:

  • Indkomst fra forbrugermarkedet: (12,9 + 0,4) / 33,4 = 0,4 (40 %)
  • Indkomst fra erhvervsmarkedet: (1,3 + 9,7 + 0,4 + 8,7) / 33,4 = 0,6 (60 %)

Det betyder, at omkring 40 % af indkomsten NVIDIA kommer fra forbrugermarkedet, og omkring 60 % fra erhvervsmarkedet. Det vil sige, at hovedretningen er forretningssegmentet. Men spilindustrien giver også ret gode indtægter. Det vigtigste er, at de vokser hvert år.

Også interessant: Dagbog for en grumpy gammel nørd: Bing vs Google

Hvad vil fremtiden bringe os?

Det er åbenlyst NVIDIA der er allerede en plan om at deltage i udviklingen af ​​kunstig intelligens algoritmer. Og den er meget bredere og mere lovende end nogen af ​​dens direkte konkurrenter.

Kun i den sidste måned NVIDIA annonceret talrige nye investeringer i kunstig intelligens. En af dem er GET3D-mekanismen, som er i stand til at generere komplekse tredimensionelle modeller af forskellige objekter og karakterer, der trofast afspejler virkeligheden. GET3D kan generere omkring 20 objekter i sekundet ved hjælp af en enkelt grafikchip.

Et mere interessant projekt skal også nævnes. Om Israel-1 er en supercomputer til kunstig intelligens programmer, som NVIDIA skaber i samarbejde med Ministeriet for Videnskab og Teknologi i Israel og virksomheden Mellanox. Maskinen forventes at have mere end 7 petaflops computerkraft og bruge mere end 1000 GPU'er NVIDIA A100 Tensor Core. Israel-1 vil blive brugt til forskning og udvikling inden for områder som medicin, biologi, kemi, fysik og cybersikkerhed. Og det er allerede meget lovende kapitalinvesteringer i betragtning af de langsigtede udsigter.

NVIDIA

Der er også allerede et andet projekt - NVIDIA ES. Det er en ny teknologi, der skal revolutionere spilindustrien ved at give spilleren mulighed for at interagere med en non-player karakter (NPC) på en naturlig og realistisk måde. Disse karakterer vil være i stand til at føre en åben dialog med spilleren, reagere på hans følelser og gestus og endda udtrykke deres egne følelser og tanker. NVIDIA ACE bruger avancerede sprogmodeller og AI-baserede billedgeneratorer.

De første billioner dollars ind NVIDIA. Det ser ud til, at der snart kommer flere. Vi vil sørge for at følge virksomhedens fremskridt og give dig besked.

Læs også:

Yuri Svitlyk
Yuri Svitlyk
Søn af Karpaterne, uanerkendt geni af matematik, "advokat"Microsoft, praktisk altruist, venstre-højre
- Annonce -
Tilmelde
Giv besked om
gæst

0 Kommentarer
Indlejrede anmeldelser
Se alle kommentarer