Główny Wprowadzać Innowacje Koniec prawa Moore'a zmieni sposób myślenia o innowacjach

Koniec prawa Moore'a zmieni sposób myślenia o innowacjach

Twój Horoskop Na Jutro

W 1965 r. współzałożyciel firmy Intel Gordon Moore opublikowany wyjątkowo proroczy papier który przewidywał, że moc obliczeniowa podwaja się co dwa lata. Przez pół wieku ten proces podwajania okazał się tak niezwykle spójny, że dziś jest powszechnie znany jako prawo Moore'a i napędza rewolucję cyfrową.

W rzeczywistości przyzwyczailiśmy się do tego, że nasza technologia staje się potężniejsza i tańsza, że ​​prawie nie zatrzymujemy się i nie myślimy o tym, jaka jest bezprecedensowa. Z pewnością nie spodziewaliśmy się, że konie czy pługi – a nawet silniki parowe, samochody czy samoloty – będą podwajać swoją wydajność w stałym tempie.

ile lat ma Kristy Swanson

Niemniej jednak nowoczesne organizacje zaczęły polegać na ciągłym doskonaleniu do tego stopnia, że ​​ludzie rzadko zastanawiają się nad tym, co to oznacza, i z Prawo Moore'a wkrótce się skończy , to będzie problem. W nadchodzących dekadach będziemy musieli nauczyć się żyć bez pewności prawa Moore'a i działać w nowa era innowacji to będzie zupełnie inne.

Wąskie gardło von Neumanna

Ze względu na moc i spójność prawa Moore'a zaczęliśmy łączyć postęp technologiczny z szybkością procesora. Jest to jednak tylko jeden wymiar wydajności i jest wiele rzeczy, które możemy zrobić, aby nasze maszyny robiły więcej przy niższych kosztach, niż tylko je przyspieszać.

Podstawowym tego przykładem jest z wąskiego gardła Neumanna , nazwany na cześć matematycznego geniusza, który odpowiada za sposób, w jaki nasze komputery przechowują programy i dane w jednym miejscu, a wykonują obliczenia w innym. W latach czterdziestych, kiedy pojawił się ten pomysł, był to wielki przełom, ale dziś staje się to pewnym problemem.

Problem polega na tym, że ze względu na prawo Moore'a nasze chipy działają tak szybko, że w czasie potrzebnym do przemieszczenia się informacji między chipami – z nie mniejszą prędkością światła – tracimy dużo cennego czasu obliczeniowego. Jak na ironię, w miarę wzrostu prędkości chipów problem będzie się tylko pogłębiał.

Rozwiązanie jest proste w koncepcji, ale nieuchwytne w praktyce. Tak jak zintegrowaliśmy tranzystory na jednej płytce krzemowej, aby stworzyć współczesne chipy, możemy zintegrować różne chipy za pomocą metody zwanej Układanie 3D . Jeśli uda nam się sprawić, by to zadziałało, możemy zwiększyć wydajność przez kilka kolejnych pokoleń.

Zoptymalizowane obliczenia

Dziś używamy naszych komputerów do różnych zadań. Piszemy dokumenty, oglądamy filmy, przygotowujemy analizy, gramy w gry i robimy wiele innych rzeczy na tym samym urządzeniu przy użyciu tej samej architektury chipowej. Jesteśmy w stanie to zrobić, ponieważ chipy używane przez nasze komputery są zaprojektowane jako technologia ogólnego przeznaczenia.

To sprawia, że ​​komputery są wygodne i użyteczne, ale są strasznie nieefektywne w przypadku zadań wymagających dużej mocy obliczeniowej. Od dawna istnieją technologie, takie jak ASIC i FPGA, które są przeznaczone do bardziej konkretnych zadań, a od niedawna GPU stały się popularne w przypadku funkcji graficznych i sztucznej inteligencji.

Ponieważ sztuczna inteligencja wysunęła się na pierwszy plan, niektóre firmy takich jak Google i Microsoft zaczęli projektować chipy, które są specjalnie zaprojektowane do obsługi własnych narzędzi do głębokiego uczenia się. To znacznie poprawia wydajność, ale musisz zrobić dużo chipów, aby ekonomia działała, więc jest to poza zasięgiem większości firm.

Prawda jest taka, że ​​wszystkie te strategie są jedynie prowizorkami. Pomogą nam w dalszym rozwoju w ciągu najbliższej dekady, ale wraz z zakończeniem Prawa Moore'a prawdziwym wyzwaniem jest wymyślenie zupełnie nowych pomysłów na komputery.

ile lat ma kolęda kane

Głęboko nowe architektury

Przez ostatnie pół wieku prawo Moore'a stało się synonimem informatyki, ale stworzyliśmy maszyny liczące na długo przed wynalezieniem pierwszego mikroczipu. Na początku XX wieku IBM jako pierwszy wprowadził tabulatory elektromechaniczne, a następnie pojawiły się lampy próżniowe i tranzystory, zanim pod koniec lat pięćdziesiątych wynaleziono układy scalone.

Dziś pojawiają się dwie nowe architektury, które zostaną skomercjalizowane w ciągu najbliższych pięciu lat. Pierwszy to komputery kwantowe , które mogą być tysiące, jeśli nie miliony, razy potężniejsze niż obecna technologia. Zarówno IBM, jak i Google zbudowały działające prototypy, a Intel, Microsoft i inni mają aktywne programy rozwojowe.

Drugim głównym podejściem jest: obliczenia neuromorficzne , czyli chipy oparte na konstrukcji ludzkiego mózgu. Doskonale sprawdzają się one w zadaniach rozpoznawania wzorców, z którymi konwencjonalne chipy mają problemy. Są również tysiące razy wydajniejsze niż obecna technologia i można je skalować do pojedynczego, malutkiego rdzenia z zaledwie kilkuset „neuronami” i do ogromnych macierzy liczących miliony.

Jednak obie te architektury mają swoje wady. Komputery kwantowe muszą być schładzane do temperatury bliskiej zera bezwzględnego, co ogranicza ich zastosowanie. Oba wymagają zupełnie innej logiki niż konwencjonalne komputery i potrzebują nowych języków programowania. Przejście nie będzie płynne.

Nowa Era Innowacji

Przez ostatnie 20 lub 30 lat innowacje, zwłaszcza w przestrzeni cyfrowej, były dość proste. Mogliśmy liczyć na poprawę technologii w przewidywalnym tempie, co pozwoliło nam z dużą dozą pewności przewidzieć, co będzie możliwe w nadchodzących latach.

To spowodowało, że większość działań innowacyjnych skoncentrowała się na aplikacjach, z dużym naciskiem na użytkownika końcowego. Startupy, które były w stanie zaprojektować doświadczenie, przetestować je, dostosować i szybko iterować, mogły przewyższyć duże firmy, które miały znacznie więcej zasobów i zaawansowania technologicznego. To sprawiło, że zwinność stała się atrybutem rywalizacji.

ile lat ma Rachel Ray

W nadchodzących latach wahadło prawdopodobnie przesunie się z zastosowań z powrotem na podstawowe technologie, które je umożliwiają. Zamiast polegać na sprawdzonych starych paradygmatach, będziemy w dużej mierze działać w sferze nieznanego. Pod wieloma względami zaczniemy od nowa, a innowacje będą wyglądać bardziej jak w latach 50. i 60.

Informatyka to tylko jeden obszar, który osiąga swoje teoretyczne granice. Potrzebujemy także baterie nowej generacji do zasilania naszych urządzeń, samochodów elektrycznych i sieci. Jednocześnie nowe technologie, takie jak: genomika, nanotechnologia i robotyka stają się wznoszące, a nawet metoda naukowa jest kwestionowana .

Wkraczamy więc teraz w nową erę innowacji, a organizacje, które będą najskuteczniej konkurować, nie będą tymi, które mają zdolność do wprowadzania zmian, ale tymi, które chcą stawić czoła wielkim wyzwaniom i sondować nowe horyzonty.