czym jest i dlaczego są ludzie, którzy myślą, że to przyszłość.

Miliony urządzeń w otaczającym nas Internecie Rzeczy mają problem: zbierać informacje, ale nic z nimi nie robić. Wysyłają go do chmury, gdzie duże centra danych przetwarzają go w celu uzyskania określonych wniosków lub wywołania określonych zdarzeń.

Ta „pasywna” praca wszystkich tych urządzeń jest to, co chcesz zmienić, tzw. Edge Computingrodzaj filozofii mający zastosowanie zwłaszcza w środowisku biznesowym i przemysłowym, który zapewnia znacznie większą autonomię wszystkim tym urządzeniom, czyniąc je czymś bardziej „inteligentnym”.

czym jest i dlaczego są ludzie, którzy myślą, że to przyszłość

Analizy i wyniki lokalnie, a nie w chmurze

Do tej pory w większości przypadków duże platformy Cloud Computing byli odpowiedzialni za wykonanie tej „brudnej roboty” do analizy danych zbieranych przez czujniki i urządzenia IoT.

Skuteczność tego paradygmatu nie jest optymalna w wielu przypadkach same węzły sieci mogą analizować te dane aby uniknąć tego przejścia przez chmurę.

czym jest i dlaczego są ludzie, którzy myślą, że to przyszłość

Jak wskazano w NetworkWorld, tzw. Edge Computing „pozwala, aby dane wytwarzane przez urządzenia Internetu Rzeczy są przetwarzane bliżej miejsca ich powstania zamiast wysyłać je w długie podróże do centrów danych i chmur obliczeniowych. “

Ma to fundamentalną zaletę, ponieważ „pozwala organizacjom analizować ważne dane w czasie zbliżonym do rzeczywistego, coś, co jest potrzebą patentową w wielu branżach, takich jak produkcja, zdrowie, telekomunikacja czy branża finansowa. “

czym jest i dlaczego są ludzie, którzy myślą, że to przyszłość

Właśnie ta definicja wyjaśnia ten nowy trend, który powoduje, że urządzenia i czujniki rozmieszczone wszędzie dbają nie tylko o gromadzenie tych danych w celu wysłania ich do chmury, ale także o ich bezpośrednie przetwarzanie. Zastosowania przemysłowe w tej dziedzinie są różnorodnea takie podejście może skutecznie sprawić, że usprawnienie wielu procesów stanie się sensowne.

Za dużo danych i być może za dużo urządzeń IoT

Firmy takie jak McKinsey & Co. szacują, że tak zwany Przemysłowy Internet Rzeczy (IIoT) będzie produkować 7,5 bln przychodów (z bilionem hiszpańskim) dolarów w 2025 r.

czym jest i dlaczego są ludzie, którzy myślą, że to przyszłość

Jednym z problemów, przed którymi stoi predykcja, jest sposób radzenia sobie z ogromną ilością danych, które mają wszystkie te urządzenia. Ile ich będzie do tego czasu? Tutaj postać 50 miliardów urządzeń IoT w 2020 roku oszacowane przez firmy Ericsson i Cisco (PDF) odpowiednio w latach 2010 i 2011.

Ta liczba wydaje się być może zbyt optymistyczna, ale była nawet ostrożna, biorąc pod uwagę, że IBM (PDF) przewidywał, że w 2015 r. liczba ta wyniesie 30 000 milionów w 2021 roku.

Liczby są obecnie trudne do zmierzenia i jak stwierdzono w IEEE, może zbyt optymistycznie. „To leży w ludzkiej naturze”, wyjaśnił analityk firmy Gartner, „jeśli działasz w tej branży i wprowadzasz nowe produkty, wiąże się to z dużym podekscytowaniem i wieloma oczekiwaniami”.

czym jest i dlaczego są ludzie, którzy myślą, że to przyszłość

Prawda jest taka, że ​​wiele z tych podłączonych urządzeń Będą miały możliwość nie tylko gromadzenia, ale i przetwarzania danych. A jeśli go nie mają, węzły w tych sieciach biznesowych lub przemysłowych będą je miały. To tam kształtuje się filozofia Edge Computing i gdzie nastąpi między innymi poprawa wydajności: brak konieczności przesyłania wszystkich tych danych do chmury będzie już oznaczał spore oszczędności.

Obliczenia mgły

Istnieje inny termin ściśle związany z Edge Computing, który jest coraz częściej używany w tej dziedzinie i to ten o nazwie Fog Computing. Jak wynika z badania Cisco (PDF), ta platforma umożliwia „rozciągnij chmurę, aby była bliżej rzeczy, które są wytwarzane i zasilane danymi z urządzeń IoT. „Osoby odpowiedzialne za badanie dodały, że” każde urządzenie z łącznością sieciową, mocą obliczeniową i pamięcią masową może być węzłem w tej „mgle”.

Można powiedzieć, że ta filozofia pozwala duże centra danych w chmurze „delegują” część swoich obowiązków do urządzeń Edge Computing i rób to za pośrednictwem Fog Computing, który definiuje wymagania lub potrzeby na tym końcu całego ekosystemu, który, jak mówimy, ma jasne zastosowania przemysłowe.

czym jest i dlaczego są ludzie, którzy myślą, że to przyszłość

Edge Computing odnosi się w szczególności do tego, jak procesy obliczeniowe są wykonywane na „urządzeniach brzegowych”, urządzeniach IoT z możliwościami i procesami analitycznymi, takimi jak routery sieciowe lub bramyna przykład.

W przeciwieństwie do tej koncepcji, Fog Computing odnosi się do połączenia sieciowe między urządzeniami brzegowymi a chmurą. Konsorcjum OpenFog, w skład którego wchodzą Cisco, Intel, Microsoft, Dell EMD oraz niektóre instytucje akademickie, od dłuższego czasu pracuje nad specyfikacjami dla tego typu wdrożeń, w których współdziałają ze sobą systemy Edge Computing, Fog Computing i Cloud Computing.

Obecne i przyszłe korzyści

Istnieją również czynniki, które sprawią, że ten typ paradygmatu będzie jeszcze łatwiejszy w przyszłości: coraz mniejsze koszty urządzeń i czujników łączy się z rosnącą mocą, jaką dysponują nawet skromne urządzenia.

Istnieją również potrzeby przemysłowe, które przyczyniają się do obstawiania Edge Computing: w niektórych środowiskach jedynym sposobem na dalszą optymalizację procesów jest próba unikania komunikacji z chmurą w jak największym stopniu. to pozwala zmniejszyć opóźnienia, zużywać mniej przepustowości —Nie jest konieczne wysyłanie wszystkich danych do chmury przez cały czas — i natychmiastowy dostęp do analizy i oceny stanu wszystkich tych czujników i urządzeń.

czym jest i dlaczego są ludzie, którzy myślą, że to przyszłość

Konsorcjum Edge Computing koncentruje się właśnie na próbie wypromowania tej dyscypliny tak, aby uzyskać korzyści w postaci obniżenia kosztów utrzymania i wdrożenia, gwarancji bezpieczeństwa czy mniejsze zużycie energii.

Tam jest inny ciekawa zaleta: bezpieczeństwo. Im mniej danych znajduje się w środowisku chmurowym, tym mniej wrażliwe jest to środowisko, jeśli zostanie naruszone. Jeśli odpowiednio zadba się o bezpieczeństwo w tych „mikro data center” Edge Computing, ta sekcja może wygrać wiele liczb całkowitych.

Nie oznacza to, że zależność od chmury i środowisk Cloud Computing zniknie: oba trendy muszą mieć swój wkład i bardziej odpowiedni jest np. Edge Computing. gdy szybkość i małe opóźnienia są potrzebne przede wszystkim w tych transferach danych, podczas gdy chmura nadal będzie odgrywać główną rolę w analizie i przetwarzaniu dużych ilości danych, które wymagają znacznej mocy obliczeniowej.

czym jest i dlaczego są ludzie, którzy myślą, że to przyszłość

Doskonałym przykładem są samochody autonomiczne

Jeśli istnieje dziedzina, w której tego rodzaju filozofia ma sens, to ten z autonomicznym samochodem. Te „centra danych na kołach” nie przestają gromadzić informacji o swoich systemach i środowisku, a wszystkie te informacje muszą być przetwarzane w czasie rzeczywistym, abyśmy mogli cieszyć się optymalną i bezpieczną autonomiczną jazdą.

Intel szacuje, że autonomiczny samochód może się skończyć generowanie 4 TB danych dziennie: tylko kamery samochodowe będą odpowiedzialne za przesyłanie do systemu między 20 a 40 Mbitów na sekundę, do czego dodałoby się kolejne od 10 do 100 Kbitów na sekundę z radaru. To tylko część danych, którymi samochód będzie musiał zarządzać, aby prawidłowo funkcjonować.

Autonomiczny samochód nie może czekać na komunikację z chmurą i czekać na odpowiedź: cały ten proces i analiza danych muszą odbywać się w czasie rzeczywistym, i właśnie tam do gry wkracza Edge Computing, potwierdzając ważną rolę centralnego komputera samochodu w gromadzeniu, analizowaniu i reagowaniu na potrzeby autonomicznej jazdy przez cały czas .

Te potrzeby w czasie rzeczywistym są dodawane do innych, równie interesujących, które, jak powiedzieliśmy, oznaczają, że nie można wykluczyć znaczenia chmury: wszystko, czego „nauczył się” autonomiczny samochód, można przenieść do chmury. tak, aby reszta modeli skorzystała doświadczenia i najwłaściwszej reakcji na różne wydarzenia.

Konkluzja tego coraz popularniejszego trendu jest zasadniczo całkiem logiczna: wykorzystaj zasoby w każdym przypadku (w centrach danych w chmurze lub systemie wypełnionym czujnikami i komponentami IoT), aby zoptymalizować tę zdolność przetwarzania i ten transfer danych. Teraz okaże się, czy ten paradygmat zwycięży.