Za BMS, autobus, industrijski, instrumentacijski kabel.

Kako se proljetni festival bliži kraju, uzbuđenje oko Deepseeka ostaje snažno. Nedavni praznik istaknuo je značajan osjećaj konkurencije u tehnološkoj industriji, a mnogi su razgovarali o i analiziranju ovog "soma". Silicijska dolina doživljava neviđeni osjećaj krize: zagovornici otvorenog koda ponovno izražavaju svoja mišljenja, pa čak i OpenAi preispituje je li njegova strategija zatvorenog koda najbolji izbor. Nova paradigma nižih računalnih troškova pokrenula je lančanu reakciju među čip divovima poput NVIDIA, što je dovelo do rekordnog jednodnevnog gubitka tržišne vrijednosti u povijesti američke burze, dok vladine agencije istražuju usklađenost s čipovima koje koristi DeepSeek. Usred mješovitih pregleda Deepseeka u inozemstvu, u zemlji, doživljava izvanredan rast. Nakon pokretanja modela R1, pridružena aplikacija zabilježila je porast prometa, što ukazuje na to da će rast sektora aplikacija potaknuti cjelokupni AI ekosustav naprijed. Pozitivan aspekt je da će DeepSeek proširiti mogućnosti primjene, sugerirajući da oslanjanje na chatgpt neće biti tako skupo u budućnosti. Taj se pomak odražavao na nedavnim aktivnostima OpenAi-a, uključujući pružanje modela obrazloženja nazvanog O3-Mini besplatnim korisnicima kao odgovor na DeepSeek R1, kao i naknadne nadogradnje zbog kojih je misaoni lanac O3-Mini javno. Mnogi su inozemni korisnici izrazili zahvalnost Deepseeku za tim razvojem, iako ovaj misaoni lanac služi kao sažetak.
Optimistično, očito je da DeepSeek objedinjuje domaće igrače. S fokusom na smanjenje troškova treninga, raznih proizvođača uzvodno čipova, srednjih pružatelja usluga oblaka i brojnih startupa aktivno se pridružuju ekosustavu, povećavajući troškovnu učinkovitost za upotrebu DeepSeek modela. Prema Deepseekovim radovima, cjelovita obuka modela V3 zahtijeva samo 2,788 milijuna H800 GPU sati, a proces treninga je vrlo stabilan. Moe (mješavina stručnjaka) arhitektura ključna je za smanjenje troškova pred-treninga za faktor deset u usporedbi s LLAMA 3 s 405 milijardi parametara. Trenutno je V3 prvi javno priznati model koji pokazuje tako visoku rijetkost u MOE -u. Uz to, MLA (više slojeva pažnja) djeluje sinergistički, posebno u aspektima obrazloženja. "Što je Skrsač Moe, što je veća veličina šarže potrebne za vrijeme obrazloženja da bi se u potpunosti iskoristila računalna snaga, s tim da je veličina KVCache ključni faktor ograničavanja; MLA značajno smanjuje veličinu kvcache", napomenuo je istraživač iz Chuanjing tehnologije u analizi za pregled AI Technology. Sve u svemu, Deepseekov uspjeh leži u kombinaciji različitih tehnologija, a ne samo jednog. Industrijski insajderi hvale inženjerske sposobnosti DeepSeek tima, primjećujući njihovu izvrsnost u paralelnoj obuci i optimizaciji operatera, postižući revolucionarne rezultate usavršavanjem svakog detalja. Deepseekov pristup otvorenog koda dodatno podstiče cjelokupni razvoj velikih modela, a predviđa se da će se, ako se slični modeli prošire na slike, videozapise i više, to značajno potaknuti potražnju u cijeloj industriji.
Mogućnosti za usluge obrazloženja trećih strana
Podaci ukazuju na to da je DeepSeek u roku od samo 21 dan prikupio 22,15 milijuna dnevno aktivnih korisnika (DAU), postigavši 41,6% korisničke baze ChatGPT-a i nadmašivši 16,95 milijuna dnevno aktivnih korisnika Doubaoa, postajući tako najbrže rastuća aplikacija na globalnoj razini, na vrhu Apple Appcal/Regions. Međutim, dok su korisnici slijevali u gužvi, cyber hakeri nemilosrdno napadaju aplikaciju Deepseek, što je uzrokovalo značajno naprezanje na svojim poslužiteljima. Industrijski analitičari vjeruju da je to djelomično posljedica dubokog raspoređivanja karata za obuku, a nedostaju im dovoljna računalna snaga za rasuđivanje. Insider insajder informirao je AI tehnologiju, "Česti problemi poslužitelja mogu se lako riješiti naplaćivanjem naknada ili financiranjem za kupnju više strojeva; u konačnici, to ovisi o DeepSeekovim odlukama." To predstavlja kompromis u fokusiranju na tehnologiju nasuprot produktizaciji. DeepSeek se uglavnom oslanjao na kvantnu kvantizaciju za samoodržavanje, primio je malo vanjskog financiranja, što je rezultiralo relativno niskim tlakom novčanog toka i čistijim tehnološkim okruženjem. Trenutno, s obzirom na gore spomenute probleme, neki korisnici pozivaju DeepSeek na društvenim medijima da uzdignu pragove upotrebe ili unose plaćene značajke kako bi poboljšali udobnost korisnika. Uz to, programeri su počeli koristiti službeni API ili API-je treće strane za optimizaciju. Međutim, otvorena platforma DeepSeeka nedavno je objavila: "Trenutačni resursi poslužitelja su oskudni, a API servisi su suspendirani."
To nesumnjivo otvara više mogućnosti za treće dobavljače u AI infrastrukturnom sektoru. Nedavno su brojni domaći i međunarodni oblačni divovi pokrenuli DeepSeekov model API -ja - Overseas Giants Microsoft i Amazon bili su među prvima koji su se pridružili krajem siječnja. Domaći vođa, Huawei Cloud, napravio je prvi potez, objavljujući usluge razmišljanja DeepSeek R1 i V3 u suradnji sa protokom temeljenim na siliciju 1. veljače. Izvješća iz AI Technology Review-a ukazuju na to da su usluge Flow-a utemeljenih na silicijuma zabilježile priliv korisnika, učinkovito "srušivši" platformu. Velike tri tehnološke kompanije-Bat (Baidu, Alibaba, Tencent) i Bytettance-također su izdale niskobudžetne, ograničene ponude od 3. veljače, podsjećajući na prošlogodišnjeg dobavljača Cloud Prodavača ratova koji su zapalili Deepseekov pokretanje V2 modela, gdje je Deepseek počeo biti nazvan "cijeni Butcher". Ljutite akcije dobavljača oblaka odjekuju ranijim jakim vezama između Microsoft Azure i Openai, gdje je Microsoft u 2019. godini uložio značajno ulaganje u milijardu dolara u OpenAi i ostvario pogodnosti nakon pokretanja chatgpta 2023. godine. Međutim, ovaj bliski odnos počeo je biti nakon što je Meta otvoreni malemici s njihovim otvorenim izlazom, omogućili i druge prodaje. U ovom slučaju, DeepSeek nije samo nadmašio chatgpt u pogledu topline proizvoda, već je uveo i modele otvorenog koda nakon izdanja O1, slično uzbuđenju oko oživljavanja GPT-3 Llama.
U stvarnosti, pružatelji usluga oblaka također se pozicioniraju kao prometni prolaz za AI aplikacije, što znači da produbljivanje veza s programerima znači preventivne prednosti. Izvješća govore da je Baidu Smart Cloud imao preko 15 000 kupaca koji su koristili DeepSeek model putem platforme Qianfan na dan pokretanja modela. Uz to, nekoliko manjih tvrtki nudi rješenja, uključujući protok na bazi silicija, Luchen Technology, Chuanjing Technology i razne pružatelje usluga AI infra koji su pokrenuli podršku za DeepSeek modele. AI tehnološki pregled saznao je da trenutne mogućnosti optimizacije za lokalizirane implementacije DeepSeeka prvenstveno postoje u dva područja: jedna je optimizacija za karakteristike rijetkih modela MOE koristeći mješovito obrazloženje za raspoređivanje 671 milijardi parametara Moe Model lokalno, koristeći hibridni GPU/CPU zaključak. Uz to, optimizacija MLA je od vitalne važnosti. Međutim, dva modela Deepseeka i dalje se suočavaju s nekim izazovima u optimizaciji implementacije. "Zbog veličine i brojnih parametara modela, optimizacija je doista složena, posebno za lokalne implementacije gdje će postizanje optimalne ravnoteže između performansi i troškova biti izazovno", izjavio je istraživač iz Chuanjing Technology. Najznačajnija prepreka leži u prevladavanju ograničenja kapaciteta memorije. "Prihvaćamo heterogeni pristup suradnji kako bismo u potpunosti iskoristili CPU-ove i druge računalne resurse, postavljajući samo ne podijeljene dijelove rijetke Moe matrice na CPU/DRAM za obradu korištenjem visoko performansi CPU operatora, dok gusti dijelovi ostaju na GPU-u", nadalje je objasnio. Izvješća pokazuju da Chuanjingov okvir s otvorenim kodom Ktransformeri prvenstveno unose različite strategije i operatere u izvorno implementaciju transformatora kroz predložak, značajno povećavajući brzinu zaključivanja pomoću metoda poput Cudagraph. DeepSeek je stvorio mogućnosti za ove startapove, jer koristi rasta postaju očite; Mnoge tvrtke izvijestile su o primjetnom rastu kupaca nakon što su pokrenule API DeepSeek, primajući upite od prethodnih klijenata koji traže optimizacije. Industrijski insajderi su primijetili: "U prošlosti su pomalo uspostavljene grupe klijenata često bile zaključane u standardiziranim uslugama većih tvrtki, čvrsto vezane za njihove troškovne prednosti zbog razmjera. Međutim, nakon dovršetka raspoređivanja DeepSeek-R1/V3 prije proljetnog festivala, odjednom smo primili zahtjeve za suradnju od nekoliko poznatih klijenata." Trenutno se čini da DeepSeek čini da performanse zaključivanja modela postaju sve kritičniju, a uz šire prihvaćanje velikih modela, to će značajno utjecati na razvoj u industriji AI infra. Ako bi se model na razini duboke razine mogao lokalno rasporediti po niskoj cijeni, uvelike bi pomogao vladi i naporima za digitalnu transformaciju poduzeća. Međutim, izazovi i dalje postoje, jer neki klijenti mogu imati velika očekivanja u vezi s velikim mogućnostima modela, što čini očiglednijim da uravnoteženje performansi i troškova postaje od vitalnog značaja u praktičnoj implementaciji.
Da biste procijenili je li DeepSeek bolji od chatgpt -a, ključno je razumjeti njihove ključne razlike, snage i slučajeve upotrebe. Evo sveobuhvatne usporedbe:
Značajka/aspekt | Deepseek | Chatgpt |
---|---|---|
Vlasništvo | Razvila kineska tvrtka | Razvio OpenAi |
Izvorni model | Otvoreni kos | Vlasnički |
Koštati | Slobodno koristiti; jeftinije mogućnosti pristupa API -ja | Pretplata ili cijene plaćanja po uporabi |
Prilagođavanje | Vrlo prilagodljivo, omogućavajući korisnicima da se prilagode i nadograde na tome | Ograničena prilagodba dostupna |
Performanse u određenim zadacima | Izvrsno u određenim područjima poput analitike podataka i pretraživanja informacija | Svestrani s jakim performansama u kreativnom pisanju i razgovorima |
Jezična podrška | Snažan fokus na kineski jezik i kulturu | Podrška širokog jezika, ali usredotočena na SAD |
Trošak obuke | Niži troškovi treninga, optimizirani za učinkovitost | Viši troškovi obuke, koji zahtijevaju značajne računalne resurse |
Varijacija odziva | Mogu ponuditi različite odgovore, možda pod utjecajem geopolitičkog konteksta | Dosljedni odgovori na temelju podataka o obuci |
Ciljana publika | Usmjeren na programere i istraživače koji žele fleksibilnost | Usmjeren prema općim korisnicima koji traže razgovorne sposobnosti |
Koristi slučajevi | Učinkovitiji za stvaranje koda i brze zadatke | Idealno za generiranje teksta, odgovaranje na upite i uključivanje u dijalog |
Kritička perspektiva na "ometanje nvidia"
Trenutno, osim Huaweija, nekoliko domaćih proizvođača čipova poput Moore Threads, Muxi, Biran Technology i Tianxu Zhixin također se prilagođavaju Deepseekovim dva modela. Proizvođač čipova rekao je AI Technology Review: "DeepSeekova struktura pokazuje inovaciju, ali ostaje LLM. Naša prilagodba Deepseeku prvenstveno je usmjerena na obrazloženje aplikacija, čineći tehničku implementaciju prilično jednostavnom i brzom." Međutim, pristup MOE zahtijeva veće zahtjeve u smislu skladištenja i distribucije, zajedno s osiguravanjem kompatibilnosti prilikom raspoređivanja s domaćim čipovima, predstavljajući brojne inženjerske izazove koji trebaju razlučivost tijekom prilagodbe. "Trenutno domaća računalna snaga ne odgovara NVIDIA u upotrebljivosti i stabilnosti, što zahtijeva originalno tvorničko sudjelovanje za postavljanje softverskog okruženja, rješavanje problema i optimizaciju utemeljenja performansi", rekao je praktičar u industriji na temelju praktičnog iskustva. Istovremeno, "zbog velike parametra razmjera DeepSeeka R1, domaća računska snaga zahtijeva više čvorova za paralelizaciju. Uz to, domaće hardverske specifikacije još uvijek zaostaju; na primjer, Huawei 910B trenutno ne može podržati zaključak FP8 koji je uveo Deepseek." Jedan od najvažnijih trenutaka modela DeepSeek V3 je uvođenje FP8 miješanog preciznog okvira za trening, koji je učinkovito potvrđen na izuzetno velikom modelu, što je označavalo značajno postignuće. Prije toga, glavni igrači poput Microsofta i Nvidia sugerirali su povezani rad, ali sumnje su u industriji ostale u pogledu izvedivosti. Podrazumijeva se da je u usporedbi s INT8, glavna prednost FP8-a što kvantizacija nakon treninga može postići gotovo bez gubitaka, a istovremeno značajno povećava brzinu zaključivanja. U usporedbi s FP16, FP8 može ostvariti do dva puta ubrzanje na NVIDIA -inom H20 i preko 1,5 puta ubrzanja na H100. Značajno je da rasprave o trendu domaće računalne snage plus domaći modeli dobivaju na zamahu, nagađanja o tome može li se nvidia poremetiti i može li se CUDA jark zaobići, postaju sve prevladavajući. Jedna neosporna činjenica je da je DeepSeek doista izazvao značajan pad tržišne vrijednosti NVIDIA-e, ali ovaj pomak postavlja pitanja u vezi s NVIDIA-inom integritetom računalne energije. Prethodno prihvaćene pripovijesti u vezi s računalnom akumulacijom usmjerenom na kapital su osporavane, ali i dalje je teško da se Nvidia u potpunosti zamijeni u scenarijima treninga. Analiza duboke upotrebe CUDA DeepSeeka pokazuje da fleksibilnost - poput korištenja SM -a za komunikaciju ili izravno manipuliranje mrežnim karticama - nije izvediva da se mogu prilagoditi redoviti GPU -ovi. Stajališta industrije naglašavaju da NVIDIA -ini moat obuhvaća cjelokupni CUDA ekosustav, a ne samo CUDA, i upute PTX (paralelno izvršavanje niti) koje DeepSeek koristi još uvijek su dio CUDA ekosustava. "Kratkoročno, računalna moć NVIDIA -e ne može se zaobići - to je posebno jasno u obuci; međutim, raspoređivanje domaćih karata za rezoniranje bit će relativno lakši, pa će napredak vjerojatno biti brži. Prilagođavanje domaćih kartica prvenstveno se fokusira na zaključivanje; još nitko nije uspio osposobljavati modeliranje industrije na temelju prizemnih karata." Sve u svemu, sa stajališta zaključivanja, okolnosti su ohrabrujuće za domaće čipove velikih modela. Prilike za domaće proizvođače čipova u području zaključivanja očiglednije su zbog pretjerano visokih zahtjeva obuke, što ometaju ulazak. Analitičari tvrde da je jednostavno korištenje domaćih karata za zaključivanje; Ako je potrebno, nabavljanje dodatnog stroja je izvedivo, dok modeli treninga predstavljaju jedinstvene izazove - upravljanje povećanim brojem strojeva može postati opterećen, a veće stope pogrešaka mogu negativno utjecati na rezultate treninga. Obuka također ima specifične zahtjeve klastera, dok zahtjevi za klasterima za zaključivanjem nisu tako strogi, čime se ublažavaju zahtjevi GPU -a. Trenutno izvedba Nvidijine pojedinačne kartice H20 ne nadmašuje onu Huaweija ili Cambriana; Njegova snaga leži u grupiranju. Na temelju ukupnog utjecaja na tržište računalne energije, osnivač Luchen Technology, You Yang, u intervjuu s AI Technology Reviewom, "Deepseek može privremeno potkopavati uspostavljanje i iznajmljivanje ultra velikih računalnih klastera. U dugoročnoj će se održivo, značajno smanjiti troškovi koji su bili na kontinuiranom treningu, i primjene na tržištu. potražnja na tržištu računalne energije. " Uz to, "duboka pojačana potražnja za rasuđivanjem i finim podešavanjem usluga kompatibilnija je s domaćim računalnim krajolikom, gdje su lokalni kapaciteti relativno slabi, pomažu u ublažavanju otpada iz praznih resursa nakon uspostavljanja nakon klastera; to stvara održive mogućnosti za proizvođače na različitim nivoima računarske ekosussem." Luchen Technology surađivao je s Huawei Cloudom na pokretanju API -ja za obrazloženje API -ja za obrazloženje DeepSeek R1 i oblaka temeljenih na domaćoj računalnoj moći. Yang ste izrazili optimizam u vezi s budućnošću: "DeepSeek unosi povjerenje u domaća proizvedena rješenja, potičući veći entuzijazam i ulaganja u domaće računske sposobnosti koje idu naprijed."

Zaključak
Da li je Deepseek "bolji" od chatgpta, ovisi o specifičnim potrebama i ciljevima korisnika. Za zadatke kojima je potrebna fleksibilnost, niska cijena i prilagođavanje, DeepSeek je možda superiorniji. Za kreativno pisanje, opće istraživanje i korisnička razgovorna sučelja, Chatgpt može preuzeti vodstvo. Svaki alat služi različitim svrhama, tako da će izbor uvelike ovisiti o kontekstu u kojem se koriste.
Kontrolni kabeli
Strukturirani sustav kabliranja
Mreža i podaci, kabel-optički kabel, kabel za patch, moduli, prednja ploča
Travnja.16.-18., 2024. srednjoeastočna energija u Dubaiju
Travnja.16.-18., 2024. Securika u Moskvi
9. svibnja, 2024. Novi proizvodi i tehnologije pokretanja događaja u Šangaju
22. listopada-25., 2024. Sigurnost Kine u Pekingu
Studenog.19-20, 2024. povezani svijet KSA
Post Vrijeme: feb-10-2025