Domov obchodné Ako táto masívna štruktúra v oregonskej púšti udržuje facebook v prevádzke

Ako táto masívna štruktúra v oregonskej púšti udržuje facebook v prevádzke

Video: Как приклеить подошву своими руками #деломастерабоится (Septembra 2024)

Video: Как приклеить подошву своими руками #деломастерабоится (Septembra 2024)
Anonim

PRINEVILLE, Ore. - Existuje veľa spôsobov, ako zabezpečiť rýchly internet. Môžete sa presunúť do mesta Google Fiber. Môžete si vybrať jedného z našich najrýchlejších ISP. Alebo by ste mohli postaviť svoj dom vedľa dátového centra Facebook.

Zoberte si napríklad prvé dátové centrum Facebooku. Bola otvorená v Prineville v štáte Ore. V roku 2011 a slúži ako model pre každé dátové centrum, ktoré odvtedy postavil gigant sociálnych médií, od Švédska po Iowu. Spotrebúva toľko šírky pásma, že si vyžaduje viac ISP obsluhujúcich oblasť, aby opevnili svoje siete a priviedli miestnych obyvateľov na cestu.

Možno by ste považovali dátové centrum Prineville spolu s ďalšími zariadeniami Facebooku za kolektívne srdce najväčšej sociálnej siete na svete: dostanú záplavu žiadostí o fotografie, aktualizácie stavu a obnovenie informačného kanála od 1, 65 miliárd aktívnych používateľov a reagujú tak rýchlo, ako je to možné, podobne ako srdce pumpuje kyslík do krvného obehu.

Zariadenie Prineville sa blíži k piatemu výročiu a vybavovanie žiadostí o údaje o veciach, ktoré Mark Zuckerberg pravdepodobne netušil, by Facebook urobil, keď by sníval nápad spoločnosti v jeho internáte v Harvarde.

Tento týždeň sa program PCMag zastavil na prehliadke.

Prineville samozrejme stále ukladá fotografie a aktualizácie stavu, ale teraz má aj tisíce GPU Nvidia, ktoré podporujú výskum umelej inteligencie Facebooku, ako aj 2 000 telefónov iOS a Android, ktoré testujú 24 hodín denne. To pomáha inžinierom spoločnosti zvyšovať energetickú účinnosť svojich aplikácií, medzi ktoré patria okrem Facebooku aj Instagram, Messenger a WhatsApp.

Údaje na Facebooku sú „odolné, nie nadbytočné“

Prvá vec, ktorú si všimnete na zariadení Prineville, je jeho samotná veľkosť. Vychádzajúc z vysokej púšte centrálneho Oregonu, ktorá je pokrytá stromami, nie je trojhodinová cesta z Portlandu jediná budova, ale štyri (a to nezahŕňa ďalšie obrovské dátové centrum, ktoré Apple nedávno postavil cez ulicu, vhodne pomenované Connect Way). Jedna z budov Facebooku sa zmestí do dvoch Walmartov a je zhruba o 100 stôp dlhšia ako lietadlová loď triedy Nimitz.

Vnútri sú servery, ktoré obsahujú niekoľko petabajtov úložného priestoru a ktoré inžinieri Facebooku neustále inovujú výmenou komponentov. Zo 165 ľudí, ktorí pracujú na plný úväzok v dátovom centre, je 30 na budovu pridelených len na opravu alebo výmenu napájacích zdrojov, procesorov, pamäte a ďalších komponentov.

Charakteristickým znakom takmer každej spoločnosti, ktorá pôsobí na internete, od Amazonu po Charles Schwab, je nadbytočnosť: viac serverov ukladajúcich viac kópií údajov. To je menej prípad v Prineville, kde sa Ken Patchett, riaditeľ západných dátových operácií Facebooku, namiesto toho zameriava na odolnosť - zhruba definovaný ako schopnosť byť pripravený kedykoľvek a kdekoľvek na svete sa niekto prihlási na Facebook.

Zameranie sa na „odolnosť, nie nadbytočnosť“, ako tvrdí Patchett, je možné, pretože Facebook má luxus ukladania viacerých kópií údajov na iných miestach po celom svete, od švédskej Lulea po Altoona, Iowa. Takže namiesto toho, aby mal dva alebo viac položiek, môže sa zamerať na nákupy strategického vybavenia na každom mieste, napríklad mať jeden záložný generátor energie pre každých šesť hlavných generátorov.

„Ak chcete byť odolní, musíte byť fiškálne zodpovední, “ vysvetlil Patchett. Je jedným zo zakladateľov high-tech dátových centier v Oregonskej púšti. Pred príchodom na Facebook pomohol založiť dátové centrum v The Dalles v štáte Ore. Pre spoločnosť Google, jedna z prvých internetových spoločností, ktorá využívala lacnú vodnú energiu a chladné a suché počasie, ktoré charakterizuje obrovskú východnú časť deviatej najväčšej časti Ameriky. štát.

Dostatok sily je, samozrejme, rozhodujúci pre fungovanie Facebooku. Teplota servera je regulovaná kombináciou chladiacej vody a veľkých fanúšikov, ktorí ťahajú suchý púšťový vzduch (nižšie) namiesto klimatizačných jednotiek poháňajúcich energiu a peniaze. Cieľový teplotný rozsah je medzi 60 a 82 stupňov Fahrenheita. Tím spoločnosti Patchett sa stal tak dobrým pri dosahovaní tohto cieľa, že spoločnosť Prineville sa teraz môže pochváliť pomerom energetickej účinnosti 1, 07, čo znamená, že chladiace zariadenie, svetlá a ohrievače - čokoľvek, čo nie je počítačovým zariadením - spotrebujú iba 7 percent celkovej spotreby energie v zariadení.,

32 telefónov iPhone v krabici

Väčšina chladenia a napájania smeruje k uspokojeniu požiadaviek serverov, ale niektoré sú presmerované do pomerne malej miestnosti na testovanie aplikácií s dôsledkami na zníženie spotreby energie nielen v Prineville, ale na každom telefóne s aplikáciou Facebook.

Nie je žiadnym tajomstvom, že aplikácia Facebook bojovala so správou napájania. Guardian začiatkom tohto roka tvrdil, že aplikácia znížila výdrž batérie v telefónoch iPhone o 15 percent. Aby sa aplikácia zjednodušila a znížila sa jej spotreba batérie, priniesla spoločnosť do Prineville približne 2 000 telefónov iOS a Android, kde sú inštalované vo vnútri skriniek v skupinách po 32.

Každá skrinka má svoju vlastnú sieť Wi-Fi obklopenú izolovanými stenami a medenou páskou, ktorú používajú inžinieri späť v ústredí v Silicon Valley na dodávku testov. Hľadajú „regresie“ v používaní a výkone batérie spôsobené aktualizáciami aplikácií Facebook, Instagram, Messenger a WhatsApp. Ak nájdu jeden z vlastných kódov Facebooku, opravia ho. Ak neefektívnosť bola zavedená vývojárom, ich systém automaticky upozorní páchateľa e-mailom.

Krabice neobsahujú iba najnovšie telefóny iPhone 6 alebo Galaxy S7. Na strane iOS zahŕňajú veľa modelov z iPhone 4 a novších. Na strane Android, kto vie? Stačí povedať, že existuje jeden človek, ktorého úlohou je nájsť nejasné zariadenia s Androidom a priviesť ich do Prineville.

„Musíme získavať telefóny odkiaľkoľvek, “ povedala Antoine Reversat, inžinierka, ktorá pomáhala rozvíjať testovaciu infraštruktúru a softvér. Jeho konečným cieľom je zdvojnásobiť kapacitu stojanov na uloženie až 62 telefónov a zistiť spôsob, ako znížiť 20-krokový manuálny postup potrebný na konfiguráciu telefónu na testovanie na jeden krok. To by malo potešiť každého, kto niekedy umrel na telefóne, a zároveň obnoviť svoje spravodajstvo.

Big Sur: mozog AI na Facebooku

Ďalej na našej turné boli servery umelej inteligencie Big Sur, ktoré podobne ako kalifornské pobrežie, pre ktoré sú pomenované, pravdepodobne tvoria najmalebnejšiu časť dátového centra. Nehovoríme samozrejme o zamračených tichomorských priehľadoch, ale o počítačovej obrazovke, ktorá zobrazuje, čo sa zdalo byť skupinou obrazov, ktorú spravuje Ian Buck, viceprezident Nvidia pre zrýchlené počítačové spracovanie.

„Vycvičili sme neurónovú sieť na rozpoznávanie obrazov, “ vysvetlil Buck. „Asi po polhodine prezerania obrazov je možné začať vytvárať svoje vlastné.“

Zobrazené sa podobali francúzskemu impresionizmu z 19. storočia, ale s krútením. Ak chcete kombinovať ovocné zátišie a riečnu krajinu, spoločnosť Big Sur ju pre vás namaluje ohnutím svojich 40 petaflop spracovateľského výkonu na server. Je to jeden z niekoľkých AI systémov, ktoré používajú GPU Nvidia - v tomto prípade procesory Tesla M40 na báze PCI.e - na riešenie zložitých problémov strojového učenia. Projekt zdravotnej starostlivosti spoločnosti DeepMind spoločnosti Google využíva aj procesory spoločnosti Nvidia.

Facebook používa Big Sur na čítanie príbehov, identifikáciu tvárí na fotografiách, zodpovedanie otázok o scénach, hranie hier a učenie sa rutín, okrem iných úloh. Je to tiež softvér na otvorenie zdrojov, ktorý ponúka ostatným vývojárom plán na vytvorenie vlastnej infraštruktúry špecifickej pre AI. Hardvér obsahuje osem dosiek Tesla M40 GPU s hmotnosťou až 33 wattov. Všetky komponenty sú ľahko dostupné v zásuvke servera, aby sa zvýšila jednoduchosť aktualizácií, ktoré určite prídu, keď Nvidia vydá nové verzie GPI Tesla GPI vrátane PCI, vrátane vlajkovej lode P100.

Chladnička na zabudnuté fotografie

Prineville je prvým dátovým centrom Facebooku, preto inžinieri testujú nápady na zefektívnenie serverov Facebooku. Jedným z najnovších nápadov je chladiarenský sklad alebo dedikované servery, ktoré ukladajú čokoľvek na Facebooku, ktoré nezískava veľa názorov - napríklad fotografie z promoakcie na strednej škole alebo desiatky aktualizácií o stave, ktoré ste uverejnili, keď zomrel Michael Jackson v roku 2009., Tajomstvom úspechu chladiarenského skladu sú jeho rôzne úrovne. Prvá úroveň sa skladá z vysoko výkonného podnikového hardvéru, zatiaľ čo nižšie úrovne používajú lacnejšie komponenty av niektorých prípadoch - možno pre tie fotografie, na ktorých ste vy, s trakmi, ktoré nikto nikdy nevidí - záložné páskové knižnice. Konečným výsledkom je, že každý stojan pre chladiarenské úložné priestory môže pojať 2 petabajty úložného priestoru alebo ekvivalent 4 000 stôp halierov, ktoré siahajú až na Mesiac.

Budova pre budúcnosť

Hoci Facebook priniesol Prineville rýchlejšie pripojenie na internet a ďalšie výhody, vrátane darov viac ako 1 milión dolárov miestnym školám a charitatívnym organizáciám, jeho prítomnosť nie je kontroverzná. Oregon sa spoločnosti vzdáva veľa peňazí v daňových úľavách v čase, keď miestne hospodárstvo, ktoré sa stále vyvíja z bubliny na bývanie v roku 2008, sleduje národný priemer.

Napriek tomu by 1, 65 miliardy ľudí nemalo prístup na Facebook bez tejto púštnej základne a jej sesterských dátových centier. A aj keď dotvára svoju štvrtú budovu Prineville, dotýka sa dokončenia piateho centra v Texase. Ale ak sa tak cítite vinní za energiu, ktorú prehliadanie Facebooku spotrebúva, nemalo by. Podľa Patchetta, jeden používateľ prehliadajúci Facebook celý rok, spotrebuje menej energie, ako je potrebné na vytvorenie latte. Inými slovami, môžete sa zriecť iba jednej cesty do Starbucks a posúvať sa prostredníctvom noviniek k obsahu svojho srdca.

Ako táto masívna štruktúra v oregonskej púšti udržuje facebook v prevádzke