Por BMS, BUS, Industria, Instrumentada Kablo.

Dum la Printempa Festo finiĝas, la ekscito ĉirkaŭ DeepSeek restas forta. La lastatempa ferio elstarigis signifan senton de konkurenco ene de la teĥnologia industrio, kun multaj diskutantaj kaj analizantaj ĉi tiun "anarikaĵon". Silicon Valley spertas senprecedencan senton de krizo: subtenantoj de malfermfonteca programaro denove esprimas siajn opiniojn, kaj eĉ OpenAI retaksas ĉu ĝia fermitfonteca strategio estis la plej bona elekto. La nova paradigmo de pli malaltaj komputilaj kostoj ekigis ĉenreakcion inter ĉipaj gigantoj kiel Nvidia, kondukante al rekordaj unu-tagaj merkataj valorperdoj en la usona borsmerkata historio, dum registaraj agentejoj esploras la konformecon de la ĉipoj uzataj de DeepSeek. Meze de miksitaj recenzoj pri DeepSeek eksterlande, nacie, ĝi spertas eksterordinaran kreskon. Post la lanĉo de la modelo R1, la asociita aplikaĵo vidis pliiĝon de trafiko, indikante ke kresko en aplikaĵaj sektoroj antaŭenpuŝos la ĝeneralan AI-ekosistemon. La pozitiva aspekto estas, ke DeepSeek plilarĝigos aplikaĵajn eblecojn, sugestante ke fidi je ChatGPT ne estos tiel multekosta en la estonteco. Ĉi tiu ŝanĝo speguliĝis en la lastatempaj agadoj de OpenAI, inkluzive de la provizado de rezonadmodelo nomata o3-mini al senpagaj uzantoj kiel respondo al DeepSeek R1, kaj ankaŭ postaj ĝisdatigoj kiuj publikigis la pensĉenon de o3-mini. Multaj transoceanaj uzantoj esprimis dankemon al DeepSeek pro ĉi tiuj evoluoj, kvankam ĉi tiu pensĉeno servas kiel resumo.
Optimisme, estas evidente, ke DeepSeek unuigas hejmajn ludantojn. Kun sia fokuso al reduktado de trejnadkostoj, diversaj fabrikantoj de ĉipoj, interaj nubaj provizantoj kaj multaj noventreprenoj aktive aliĝas al la ekosistemo, plibonigante la kostefikecon por uzi la DeepSeek-modelon. Laŭ la artikoloj de DeepSeek, la kompleta trejnado de la V3-modelo postulas nur 2,788 milionojn da H800 GPU-horoj, kaj la trejnadprocezo estas tre stabila. La MoE (Miksaĵo de Fakuloj) arkitekturo estas decida por redukti antaŭtrejnadkostojn je faktoro de dek kompare kun Llama 3 kun 405 miliardoj da parametroj. Nuntempe, V3 estas la unua publike agnoskita modelo montranta tian altan maldensecon en MoE. Krome, la MLA (Mult Layer Attention - Multtavola Atento) funkcias sinergie, precipe en rezonadaj aspektoj. "Ju pli maldensa la MoE, des pli granda la arograndeco bezonata dum rezonado por plene utiligi komputilan potencon, kun la grandeco de la KVCache kiel la ŝlosila limiga faktoro; la MLA signife reduktas la KVCache-grandecon," rimarkigis esploristo de Chuanjing Technology en analizo por AI Technology Review. Ĝenerale, la sukceso de DeepSeek kuŝas en la kombinaĵo de diversaj teknologioj, ne nur unu sola. Industriaj spertuloj laŭdas la inĝenierajn kapablojn de la teamo DeepSeek, notante ilian plejbonecon en paralela trejnado kaj optimumigo de funkciigistoj, atingante mirindajn rezultojn rafinante ĉiun detalon. La malfermfonteca aliro de DeepSeek plue instigas la ĝeneralan disvolviĝon de grandaj modeloj, kaj oni antaŭvidas, ke se similaj modeloj etendiĝos al bildoj, filmetoj kaj pli, tio signife stimulos la postulon tra la tuta industrio.
Ŝancoj por Triapartaj Rezonadservoj
Datumoj indikas, ke ekde sia lanĉo, DeepSeek akumulis 22.15 milionojn da ĉiutagaj aktivaj uzantoj (DAU) ene de nur 21 tagoj, atingante 41.6% de la uzantaro de ChatGPT kaj superante 16.95 milionojn da ĉiutagaj aktivaj uzantoj de Doubao, tiel iĝante la plej rapide kreskanta aplikaĵo tutmonde, superante la Apple App Store en 157 landoj/regionoj. Tamen, dum uzantoj amasiĝis, ciberretpiratoj senĉese atakis la DeepSeek-aplikaĵon, kaŭzante signifan ŝarĝon sur ĝiaj serviloj. Industriaj analizistoj kredas, ke tio parte ŝuldiĝas al la fakto, ke DeepSeek deplojas kartojn por trejnado, dum li mankas sufiĉa komputila povo por rezonado. Industria spertulo informis AI Technology Review: "La oftaj servilaj problemoj povas esti facile solvitaj per ŝargado de kotizoj aŭ financado por aĉeti pli da maŝinoj; finfine, ĝi dependas de la decidoj de DeepSeek." Tio prezentas kompromison inter fokuso sur teknologio kontraŭ produktigo. DeepSeek plejparte fidis je kvantuma kvantigado por memstariĝo, ricevinte malmulte da ekstera financado, rezultante en relative malalta premo de kontanta fluo kaj pli pura teknologia medio. Nuntempe, pro la supre menciitaj problemoj, kelkaj uzantoj instigas DeepSeek en sociaj retoj altigi uzsolidojn aŭ enkonduki pagitajn funkciojn por plibonigi la komforton de la uzantoj. Krome, programistoj komencis uzi la oficialan API-on aŭ triapartajn API-ojn por optimumigo. Tamen, la malferma platformo de DeepSeek ĵus anoncis, "La nunaj servilaj rimedoj estas malabundaj, kaj la reŝargoj de la API-servo estas suspenditaj."
Ĉi tio sendube malfermas pliajn ŝancojn por triapartaj vendistoj en la sektoro de AI-infrastrukturo. Lastatempe, multaj hejmaj kaj internaciaj nubaj gigantoj lanĉis la modelajn API-ojn de DeepSeek - transoceanaj gigantoj Microsoft kaj Amazon estis inter la unuaj, kiuj aliĝis fine de januaro. La hejma gvidanto, Huawei Cloud, faris la unuan paŝon, publikigante la rezonadservojn DeepSeek R1 kaj V3 en kunlaboro kun Silicon-bazita Flow la 1-an de februaro. Raportoj de AI Technology Review indikas, ke la servoj de Silicon-bazita Flow spertis enfluon de uzantoj, efike "kraŝigante" la platformon. La tri grandaj teknologiaj kompanioj - BAT (Baidu, Alibaba, Tencent) kaj ByteDance - ankaŭ eldonis malaltkostajn, limigittempajn ofertojn ekde la 3-a de februaro, rememorigaj pri la prezmilitoj de nubaj vendistoj de la pasinta jaro, ekbruligitaj de la lanĉo de la modelo V2 de DeepSeek, kie DeepSeek komencis esti nomita la "prezobuĉisto". La frenezaj agoj de nubaj vendistoj ripetas la pli fruajn fortajn ligojn inter Microsoft Azure kaj OpenAI, kie en 2019, Microsoft faris grandan investon de 1 miliardo da dolaroj en OpenAI kaj rikoltis profitojn post la lanĉo de ChatGPT en 2023. Tamen, ĉi tiu proksima rilato komencis disfadeniĝi post kiam Meta malfermitkoda Llama, permesante al aliaj vendistoj ekster la ekosistemo de Microsoft Azure konkuri kun iliaj grandaj modeloj. En ĉi tiu kazo, DeepSeek ne nur superis ChatGPT laŭ produkta varmo, sed ankaŭ enkondukis malfermitkodajn modelojn post la eldono de o1, simile al la ekscito ĉirkaŭ la revivigo de GPT-3 fare de Llama.
En realeco, nubaj provizantoj ankaŭ poziciigas sin kiel trafikajn enirejojn por AI-aplikaĵoj, kio signifas, ke pliprofundigi ligojn kun programistoj tradukiĝas al preventaj avantaĝoj. Raportoj indikas, ke Baidu Smart Cloud havis pli ol 15 000 klientojn uzantajn la DeepSeek-modelon per la platformo Qianfan en la lanĉtago de la modelo. Krome, pluraj pli malgrandaj firmaoj ofertas solvojn, inkluzive de Silicon-based Flow, Luchen Technology, Chuanjing Technology, kaj diversaj AI-infrastrukturprovizantoj, kiuj lanĉis subtenon por DeepSeek-modeloj. AI Technology Review lernis, ke nunaj optimumigaj ŝancoj por lokaj deplojoj de DeepSeek ĉefe ekzistas en du areoj: unu estas optimumigi la malabundajn karakterizaĵojn de la MoE-modelo uzante miksitan rezonadan aliron por deploji la 671 miliardojn da parametroj MoE-modelon loke, dum oni uzas hibridan GPU/CPU-inferencon. Krome, la optimumigo de MLA estas esenca. Tamen, la du modeloj de DeepSeek ankoraŭ alfrontas kelkajn defiojn en deplojiĝoptimigo. "Pro la grandeco de la modelo kaj multaj parametroj, optimumigo estas efektive kompleksa, precipe por lokaj deplojoj kie atingi optimuman ekvilibron inter rendimento kaj kosto estos defia," deklaris esploristo de Chuanjing Technology. La plej grava obstaklo kuŝas en superado de la limoj de memorkapacito. "Ni adoptas heterogenan kunlaboran aliron por plene utiligi CPU-ojn kaj aliajn komputilajn rimedojn, metante nur la ne-komunajn partojn de la maldensa MoE-matrico sur CPU/DRAM por prilaborado uzante alt-efikecajn CPU-operatorojn, dum la densaj partoj restas sur la GPU," li plue klarigis. Raportoj indikas, ke la malfermfonteca kadro KTransformers de Chuanjing ĉefe injektas diversajn strategiojn kaj operatorojn en la originalan Transformers-efektivigon per ŝablono, signife plibonigante inferencan rapidon uzante metodojn kiel CUDAGraph. DeepSeek kreis ŝancojn por ĉi tiuj noventreprenoj, ĉar kreskaj avantaĝoj fariĝas evidentaj; multaj firmaoj raportis rimarkeblan klientan kreskon post lanĉo de la DeepSeek API, ricevante demandojn de antaŭaj klientoj serĉantaj optimumigojn. Industriaj spertuloj rimarkigis, "En la pasinteco, iom establitaj klientogrupoj ofte estis ŝlositaj en la normigitajn servojn de pli grandaj kompanioj, forte ligitaj per siaj kostavantaĝoj pro skalo. Tamen, post kompletigo de la deplojo de DeepSeek-R1/V3 antaŭ la Printempa Festo, ni subite ricevis kunlaborajn petojn de pluraj konataj klientoj, kaj eĉ antaŭe dormantaj klientoj iniciatis kontakton por prezenti niajn DeepSeek-servojn." Nuntempe, ŝajnas, ke DeepSeek faras modelinferencan rendimenton ĉiam pli kritika, kaj kun pli larĝa adopto de grandaj modeloj, tio daŭre influos signife la disvolviĝon en la AI-infrastruktura industrio. Se DeepSeek-nivela modelo povus esti deplojita loke je malalta kosto, ĝi multe helpus registarajn kaj entreprenajn ciferecajn transformajn klopodojn. Tamen, defioj daŭras, ĉar iuj klientoj eble havas altajn atendojn pri la kapabloj de grandaj modeloj, kio pli klare montras, ke ekvilibrigi rendimenton kaj koston fariĝas esenca en praktika deplojo.
Por taksi ĉu DeepSeek estas pli bona ol ChatGPT, estas esence kompreni iliajn ĉefajn diferencojn, fortojn kaj uzkazojn. Jen ampleksa komparo:
Trajto/Aspekto | DeepSeek | BabilejoGPT |
---|---|---|
Proprieto | Evoluigita de ĉina kompanio | Disvolvita de OpenAI |
Fonta Modelo | Malfermfonta | Proprieta |
Kosto | Senpage uzebla; pli malmultekostaj API-aliraj opcioj | Abona aŭ pago-po-uzoprezado |
Adaptado | Tre personigebla, permesante al uzantoj agordi kaj konstrui sur ĝi | Limigita adaptigo havebla |
Elfaro en Specifaj Taskoj | Elstaras en certaj areoj kiel datuma analitiko kaj informado-rehavigo | Multflanka kun forta agado en kreiva verkado kaj konversaciaj taskoj |
Lingva Subteno | Forta fokuso sur la ĉina lingvo kaj kulturo | Larĝa lingva subteno sed Uson-centra |
Trejnadkosto | Pli malaltaj trejnadkostoj, optimumigitaj por efikeco | Pli altaj trejnadkostoj, postulante grandajn komputilajn rimedojn |
Responda Variado | Povas proponi malsamajn respondojn, eble influitajn de geopolitika kunteksto | Koheraj respondoj bazitaj sur trejnaj datumoj |
Cela Publiko | Celita al programistoj kaj esploristoj dezirantaj flekseblecon | Celita al ĝeneralaj uzantoj serĉantaj konversaciajn kapablojn |
Uzokazoj | Pli efika por kodgenerado kaj rapidaj taskoj | Ideala por krei tekston, respondi demandojn kaj partopreni dialogon |
Kritika Perspektivo pri "Interrompado de Nvidia"
Nuntempe, krom Huawei, pluraj hejmaj icoproduktantoj kiel Moore Threads, Muxi, Biran Technology, kaj Tianxu Zhixin ankaŭ adaptiĝas al la du modeloj de DeepSeek. Icoproduktanto diris al AI Technology Review: "La strukturo de DeepSeek montras novigon, tamen ĝi restas LLM. Nia adaptiĝo al DeepSeek ĉefe fokusiĝas al rezonadaj aplikoj, igante teknikan efektivigon sufiĉe simpla kaj rapida." Tamen, la MoE-aliro postulas pli altajn postulojn rilate al stokado kaj distribuado, kune kun certigado de kongrueco dum deplojo kun hejmaj icoj, prezentante multajn inĝenierajn defiojn, kiuj bezonas solvon dum adaptiĝo. "Nuntempe, hejma komputila povo ne egalas Nvidia laŭ uzebleco kaj stabileco, postulante originalan fabrikan partoprenon por agordo de programara medio, problemsolvado kaj baza rendimenta optimumigo," diris industria praktikisto surbaze de praktika sperto. Samtempe, "Pro la granda parametra skalo de DeepSeek R1, hejma komputila povo necesigas pli da nodoj por paraleligo. Krome, la hejmaj aparataraj specifoj ankoraŭ iom malfruas; ekzemple, la Huawei 910B nuntempe ne povas subteni la FP8-inferencon enkondukitan de DeepSeek." Unu el la kulminaĵoj de la modelo DeepSeek V3 estas la enkonduko de miksita preciza trejnadkadro por FP8, kiu estis efike validigita sur ekstreme granda modelo, markante signifan atingon. Antaŭe, gravaj ludantoj kiel Microsoft kaj Nvidia sugestis rilatan laboron, sed duboj restas en la industrio pri farebleco. Oni komprenas, ke kompare kun INT8, la ĉefa avantaĝo de FP8 estas, ke post-trejnada kvantigado povas atingi preskaŭ senperdan precizecon, samtempe signife plibonigante la inferencan rapidon. Kompare kun FP16, FP8 povas atingi ĝis duoblan akcelon kompare kun la H20 de Nvidia kaj pli ol 1,5-oblan akcelon kompare kun la H100. Rimarkinde, dum diskutoj ĉirkaŭ la tendenco de hejma komputila potenco plus hejmaj modeloj akiras impeton, konjektoj pri ĉu Nvidia povus esti interrompita, kaj ĉu la ĉirkaŭfosaĵo CUDA povus esti preteririta, fariĝas pli kaj pli oftaj. Unu nekontestebla fakto estas, ke DeepSeek efektive kaŭzis grandan falon en la merkata valoro de Nvidia, sed ĉi tiu ŝanĝo levas demandojn pri la integreco de altkvalita komputila potenco de Nvidia. Antaŭe akceptitaj rakontoj pri kapital-movita komputila akumulado estas defiataj, tamen restas malfacile por Nvidia esti plene anstataŭigita en trejnaj scenaroj. Analizo de la profunda uzado de CUDA fare de DeepSeek montras, ke fleksebleco - kiel ekzemple uzado de SM por komunikado aŭ rekta manipulado de retkartoj - ne estas farebla por regulaj GPU-oj. Industriaj vidpunktoj emfazas, ke la ĉirkaŭfosaĵo de Nvidia ampleksas la tutan CUDA-ekosistemon anstataŭ nur CUDA mem, kaj la PTX (Paralela Fadena Ekzekuto) instrukcioj, kiujn DeepSeek uzas, ankoraŭ estas parto de la CUDA-ekosistemo. "Mallongtempe, la komputila povo de Nvidia ne povas esti preteririta - tio estas aparte klara en trejnado; tamen, deploji hejmajn kartojn por rezonado estos relative pli facila, do progreso verŝajne estos pli rapida. La adapto de hejmaj kartoj ĉefe fokusiĝas al inferenco; neniu ankoraŭ sukcesis trejni modelon de la agado de DeepSeek sur hejmaj kartoj je skalo," rimarkigis industria analizisto al AI Technology Review. Ĝenerale, el inferenca vidpunkto, la cirkonstancoj estas kuraĝigaj por hejmaj grandmodelaj blatoj. La ŝancoj por hejmaj icoproduktantoj en la sfero de inferenco estas pli evidentaj pro la troe altaj postuloj de trejnado, kiuj malhelpas eniron. Analizistoj asertas, ke simple utiligi hejmajn inferencajn kartojn sufiĉas; se necese, akiri plian maŝinon estas farebla, dum trejnaj modeloj prezentas unikajn defiojn - administri pliigitan nombron da maŝinoj povas fariĝi ŝarĝa, kaj pli altaj erarprocentoj povas negative influi trejnajn rezultojn. Trejnado ankaŭ havas specifajn postulojn pri areta skalo, dum la postuloj pri aretoj por inferenco ne estas tiel striktaj, tiel faciligante la GPU-postulojn. Nuntempe, la rendimento de la ununura H20-karto de Nvidia ne superas tiun de Huawei aŭ Cambrian; ĝia forto kuŝas en aretado. Surbaze de la ĝenerala efiko sur la komputila potenca merkato, la fondinto de Luchen Technology, You Yang, rimarkigis en intervjuo kun AI Technology Review, "DeepSeek povas provizore subfosi la establon kaj luadon de ultra-grandaj trejnaj komputilaj aretoj. Longtempe, signife reduktante la kostojn asociitajn kun granda modeltrejnado, rezonado kaj aplikoj, la merkata postulo verŝajne pliiĝos. Postaj ripetoj de AI bazitaj sur ĉi tio tial kontinue pelos daŭran postulon en la komputila potenca merkato." Krome, "la pliigita postulo de DeepSeek je rezonadaj kaj fajnagordaj servoj estas pli kongrua kun la hejma komputila pejzaĝo, kie lokaj kapacitoj estas relative malfortaj, helpante mildigi malŝparon de neaktivaj rimedoj post la establado de aretoj; tio kreas realigeblajn ŝancojn por fabrikantoj trans malsamaj niveloj de la hejma komputila ekosistemo." Luchen Technology kunlaboris kun Huawei Cloud por lanĉi la DeepSeek R1-serian rezonadan API-on kaj nubajn bildigajn servojn bazitajn sur hejma komputila povo. You Yang esprimis optimismon pri la estonteco: "DeepSeek ensorbigas fidon je nacie produktitaj solvoj, kuraĝigante pli grandan entuziasmon kaj investon en hejmajn komputilajn kapablojn por la estonteco."

Konkludo
Ĉu DeepSeek estas "pli bona" ol ChatGPT dependas de la specifaj bezonoj kaj celoj de la uzanto. Por taskoj bezonantaj flekseblecon, malaltan koston kaj adapteblecon, DeepSeek eble estas pli bona. Por kreiva verkado, ĝenerala esplorado kaj uzanto-amikaj konversaciaj interfacoj, ChatGPT eble prenos la antaŭecon. Ĉiu ilo servas malsamajn celojn, do la elekto multe dependos de la kunteksto en kiu ili estas uzataj.
Kontrolaj Kabloj
Strukturita Kabla Sistemo
Reto kaj Datumoj, Fibro-Optika Kablo, Konektilo-Ŝnuro, Moduloj, Frontplato
16a-18a de aprilo 2024, Mezoriento-Energio en Dubajo
16-18 apr. 2024 Securika en Moskvo
9-a de majo 2024 Lanĉo de novaj produktoj kaj teknologioj en Ŝanhajo
22-25 okt. 2024 SEKURECA ĈINIO en Pekino
19-20 novembro 2024 KONEKTITA MONDO KSA
Afiŝtempo: 10-a de februaro 2025