Technologie założycielskie czwartej rewolucji

1358

Czy mamy wciąż 4 czy może już 5 przemysłową rewolucję – rozważa Platforma Przemysłu Przyszłości. W 2018 r. ponad pięć miliardów ludzi – 2/3 światowej populacji – miało telefon działający na zasadzie łączności bezprzewodowej. Co trzecie z tych urządzeń to smartfon – telefon będący jednocześnie przenośnym komputerem, którego moc obliczeniowa tysiąckrotnie przekracza moc komputera, który w 1969 r. pomagał wysłać ludzi na Księżyc. Dzięki podłączeniu do globalnej sieci internetowej na wyciągnięcie ręki – a raczej na skinięcie palcem – mamy dostęp do archiwum wiedzy zgromadzonej przez ludzkość, znajomych w portalu społecznościowym oraz cyfrowych usług oferowanych przez platformy internetowe. Sztuczna inteligencja wykorzystująca sieci neuronowe nauczyła się wygrywać w pokera – grę wymagającą nie tylko umiejętności myślenia dedukcyjnego, ale i intuicji, uważanej za przymiot czysto ludzki. Zachodząca na naszych oczach czwarta rewolucja technologiczna opiera się na wynalazkach, o jakich nie śniło się filozofom, ale o których marzyli twórcy science fiction. Ci z nas, którzy wyrośli w świecie bez internetu, smartfonów i sztucznej inteligencji, doświadczają „szoku przyszłości” głębszego, niż przewidzieli twórcy tego terminu, socjologowie Alvin i Heidi Toefflerowie, w latach 70. XX wieku.

Dlaczego właśnie czwarta? Numeracja kolejnych rewolucji technologicznych – czyli gwałtownych zmian gospodarczych, społecznych i politycznych związanych z upowszechnieniem się nowej technologii – ma charakter umowny. Podział, zaproponowany w latach 70. XX w. przez amerykańskiego socjologa Daniela Bella, zakładał, że pierwszą wywołało wynalezienie maszyny parowej, druga nastała wraz z wynalezieniem elektryczności, a trzecia – zachodzi w wyniku automatyzacji i komputeryzacji. Carlota Perez, badająca zjawisko innowacji, w książce „Technological Revolution and Financial Capital” (2002) pisze o pięciu rewolucjach. Pierwsza to rewolucja przemysłowa: jej umowny początek przypada na rok 1771, gdy Richard Arkwright, wynalazca udoskonalonego krosna, otwiera swoją pierwszą fabrykę w Wielkiej Brytanii. Druga wiąże się z upowszechnieniem silnika parowego i rozpoczyna ją test lokomotywy zwanej Rakietą w 1829 r. Trzecią rewolucję – stali i elektryfikacji przemysłu ciężkiego – symbolizuje otwarcie fabryki stali Carnegie Bessemer w 1875 r. Emblematami kolejnej rewolucji – czwartej – staną się ropa naftowa, samochód i produkcja masowa. Rozpoczyna się ona w 1908 r., gdy z linii produkcyjnej Forda zjeżdża pierwszy model T, a kończy wraz z nastaniem epoki informacji i telekomunikacji. To piąta rewolucja, która została zainicjowana pojawieniem się w 1971 r. mikroprocesora firmy Intel. Podejście Perez – wyodrębniające dwa etapy pierwszej rewolucji przemysłowej: mechaniczny i parowy – nie zyskało jednak popularności.

W dyskursie naukowym i biznesowym dominuje przekonanie, że obecnie mamy do czynienia z czwartą rewolucją technologiczną (a także przemysłową, społeczną i polityczną). Takie podejście prezentuje założyciel organizacji World Economic Forum, Klaus Schwab, w książce „The Fourth Industrial Revolution” (2016). Dwaj dziennikarze, John Mickletwaite i Adrian Wooldridge, piszą o czwartej rewolucji w kontekście przejścia do „inteligentnego państwa” („smart state”), wykorzystującego nowe technologie. Tego samego terminu używa także Luciano Floridi w książce „The Fourth Revolution. How the Infosphere is Reshaping Human Reality” (2014). Floridi pisze o przemianach w sposobie, w jaki człowiek rozumie samego siebie. Pierwsza rewolucja – kopernikańska, obaliła przekonanie, że ludzkość jest centrum kosmosu; druga – darwinowska, dowiodła, że człowiek nie jest królem stworzenia; trzecia rewolucja – freudowska, obaliła założenie o racjonalności ludzkiego umysłu. Czwarta rewolucja bierze nazwę od genialnego matematyka, który stworzył podwaliny dla rozwoju technologii informatycznych – Alana Turinga. W wyniku rewolucji turingowskiej i pojawienia się sztucznej inteligencji człowiek traci wyjątkową pozycję jedynej istoty zdolnej do logicznego myślenia, przetwarzania informacji i inteligentnego zachowania. Nasycenie rzeczywistości nowymi technologiami sprawia, że ludzie zmieniają się w organizmy informacyjne (inforgi), zanurzone w infosferze, w której funkcjonują inne podmioty informacyjne, również te „nie-ludzkie”. Pisząc o czwartej rewolucji technologicznej, podążałyśmy za wymienionymi wyżej autorami.

Innowacja kombinatoryjna

Najbardziej wyrazistą cechą czwartej rewolucji technologicznej jest rosnące natężenie innowacji kombinatoryjnej. Klasyczne podejście do zmiany technologicznej, zaproponowane na początku XX w. przez austriackiego ekonomistę Josepha Schumpetera, zakładało, że jej pierwszym etapem jest wynalazek: nowy produkt lub proces. Wynalazek ma charakter naukowo-techniczny, może nigdy nie wykroczyć poza ściany laboratorium czy garażu wynalazcy. Innowacja to już fakt ekonomiczny, wywierający wpływ na gospodarkę, chociaż może mieć niszowy charakter. Dopiero dyfuzja, czyli upowszechnienie, przekształca innowację w fenomen socjoekonomiczny. Nowsze ujęcie, rozwijane m.in. przez stanfordzkiego ekonomistę W. Briana Arthura w książce „The Nature of Technology” (2011), zakłada, że technologia nie powstaje w sposób linearny, lecz że technologie składają się z technologii, powstają jako kombinacje innych technologii. Mechanizm ten cechował również poprzednie rewolucje technologiczne, ale przebiegał znacznie wolniej, m.in. ze względu na tempo obiegu wiedzy. Dyfuzja internetu, szczytowego wynalazku trzeciej rewolucji technologicznej, przyspieszyła i bezprecedensowo rozszerzyła obieg i wymianę wiedzy między badaczami i ośrodkami z całego świata. W dodatku, jak zauważa Hal Varian, główny ekonomista Google’a, przyspieszenie wynika również z dematerializacji głównego „substratu” działań innowacyjnych, czyli danych:

Wkroczyliśmy w etap, w którym mamy do dyspozycji składowe internetu: software, protokoły, języki – i możliwości łączenia tego wszystkiego tak, by powstawały kolejne innowacje. Najwspanialsze zaś jest to, że wszystkie elementy to bity. To oznacza, że nigdy ich nam nie zabraknie. Możemy je przetwarzać, powielać, rozsyłać po całym świecie, a dziesiątki tysięcy innowatorów może dzięki nim wykombinować i zrekombinować kolejne innowacje. Tutaj nie ma niedoborów. Nie ma opóźnień w dostawach. To sytuacja, w której komponenty są dostępne dla każdego, stąd bierze się niesamowity rozkwit innowacji, który widzimy wszędzie wokół.

Mechanizmy innowacji kombinatoryjnej niekiedy opierają się na przechwytywaniu innowacji stworzonej przez konkurencję, czego przykładem jest wojna patentowa, która toczyła się między Microsoftem a Google’em. W 2010 r. Microsoft uznał – trwa dyskusja, czy zasadnie – że system Android wykorzystuje rozwiązania stanowiące jego własność intelektualną. Firma zaczęła pobierać wysokie opłaty za licencje na Androida, co skłoniło producentów urządzeń do szukania innych rozwiązań systemowych, takich jak Windows Phone czy Firefox OS. W 2015 r. ogłoszono zakończenie sporu i rozejm między Google’em i ­Microsoftem, nie zdradzając szczegółów ugody. Poinformowano jedynie o podjęciu współpracy między firmami, dotyczącej patentów oraz opracowania nowych technologii sieciowych. Zdaniem Kai Fu Lee, autora książki „AI Superpowers” (2018), nadmierne poszanowanie dla zasady własności intelektualnej w coraz większym stopniu ogranicza innowacyjność działań podejmowanych w ekosystemie firm technologicznych w amerykańskiej Dolinie Krzemowej. Startupy funkcjonujące w chińskim ekosystemie nie mają takich hamulców – umiejętność szybkiego kopiowania konkurencyjnych rozwiązań i ich ulepszania jest tam uważana za przejaw przedsiębiorczości, co w ostatecznym rozrachunku może przesądzić o ich globalnym sukcesie.

W artykule przedstawiamy zwięzłą historię ewolucji nowych technologii, warunkujących powstawanie gospodarki cyfrowej. Naszym celem jest nakreślenie kontekstu transformacji cyfrowej, dlatego nie wchodzimy w szczegóły techniczne, a skupiamy się na najważniejszych mechanizmach. Najpierw wyjaśnimy znaczenie technologii założycielskich czwartej rewolucji technologicznej, do których zaliczamy komputer, internet i smartfon.

Komputer

Epokową innowacją, która zapoczątkowała trzecią rewolucję technologiczną, był komputer. Sam pomysł stworzenia programowalnej maszyny obliczeniowej (analytical engine) jest przypisywany angielskiemu matematykowi Charlesowi Babbage’owi. W 1834 r. Babbage przedstawił projekt maszyny parowej, która mogłaby wykonywać mozolną i czasochłonną pracę „kalkulatorów”, czyli ludzi zajmujących się ręcznymi obliczeniami. Maszyna miała być zbudowana z pamięci (store), magazynującej dane, o pojemności 675 bitów, oraz młyna (mill), wykonującego obliczenia. Można ją było programować przy użyciu dziurkowanych kart, podobnych do tych używanych w maszynach żakardowych. Pierwsze programy, które mogłyby działać na maszynie Babbage’a, napisała matematyczka Ada Lovelace.

(Charles Babbage – fot. Wikipedia)

Babbage nigdy nie zdołał jednak zbudować swojej napędzanej parą maszyny: była zbyt skomplikowana, zbyt wielka (rozmiar małej lokomotywy) i zbyt kosztowna. Praktyczne problemy konstrukcyjne niemal pokonały nawet entuzjastów z londyńskiego Muzeum Nauki zaangażowanych w projekt jej rekonstrukcji. Pierwsze komputery, które powstały ponad sto lat później, działały jednak na podobnej zasadzie: miały wydzielony moduł pamięci i moduł analityczny, można było je programować przy użyciu przełączników i wtyczek. Ich konstrukcja była jednak prostsza dzięki innej epokowej innowacji – elektryfikacji. Nadal jednak zajmowały bardzo dużo miejsca: stworzone w latach 1943–1945 brytyjskie programowalne maszyny elektroniczne, wykorzystywane do rozszyfrowywania niemieckich komunikatów wojskowych, zasadnie były nazywane Colossusami, w Stanach Zjednoczonych pierwsze komputery nazywano czule „wielkim żelastwem” („Big Iron”). Pierwszy komputer przeznaczony do celów komercyjnych – Ferranti Mark 1 z 1951 r. – ważył pół tony, a jego obsługa wymagała zaawansowanych umiejętności. Rosnące zainteresowanie komputerami ze strony przemysłu przełożyło się na zmianę ich funkcji: w coraz większym stopniu polegały one na przetwarzaniu danych, a nie wykonywaniu jedynie prostych operacji matematycznych.

Elektroniczne komputery znalazły przede wszystkim zastosowanie w rutynowych procesach administracyjnych – sporządzaniu list wypłat, zestawień rachunków i sporządzania raportów. Wszystkie te zadania były już przynajmniej częściowo zmechanizowane za pomocą maszyn do pisania, maszyn tabulacyjnych i kalkulatorów mechanicznych. W wielu dużych korporacjach zadania zostały oddelegowane do specjalnych departamentów przetwarzania danych. I to dla nich IBM pod koniec lat 50. projektował wiele komputerów, reklamując je jako narzędzia do „elektronicznego przetwarzania danych”. W latach 60. komputery w korporacjach były w większości wykorzystywane właśnie w tym celu, choć eksperci komputerowi postrzegali to zastosowanie technologii komputerowej jako najmniej interesujące.

(M. Campbell-Kelly i in., Computer: A History of the Information Machine.)

Do zmniejszenia rozmiaru komputerów przyczynił się kolejny wynalazek – tranzystor (1948), który zastąpił nieefektywne lampy próżniowe wykorzystywane do wykonywania obliczeń. Dekadę później pojawił się układ scalony integrujący wszystkie elektryczne elementy komputera (tranzystory, przewodniki, oporniki, diody) w jednym krzemowym chipie. Nadal jednak każda funkcja komputera była obsługiwana przez oddzielny chip. Prawdziwy przełom nastąpił wraz z wynalezieniem mikroprocesora (pojedynczego układu scalonego o wielkim stopniu integracji).

Pierwszy mikroprocesor został wyprodukowany przez firmę Intel w 1971 r. dla producenta kalkulatorów Busicom. Tak powstał Intel 4004 – pierwszy mikroprocesor o ogólnym zastosowaniu. Klient wycofał się jednak z umowy i Intel został zmuszony do znalezienia innego rynku zbytu. Niemniej nie był jedynym podmiotem wdrażającym tę innowację. Równolegle technologię produkcji mikroprocesorów rozwijała pracująca dla wojska firma Garret oraz Texas Instruments, która zamierzała je stosować w produkowanych przez siebie kalkulatorach i to właśnie ona jako pierwsza zgłosiła patent. Ostatecznie spór zakończył się ugodą z Intelem.

Pierwszy mikroprocesor Intela był wielkości 12 mm2, składał się z 2300 tranzystorów i wykonywał 60 tys. operacji na sekundę, ten wyprodukowany rok później miał już 3500 tranzystorów i wykonywał 300 tys. operacji na sekundę. Zgrubnie potwierdzało to zaproponowaną w 1965 r. tezę jednego z założycieli Intela, George’a Moore’a, dotyczącą regularnego podwajania się liczby tranzystorów umieszczonych na mikroprocesorze.

Prawo Moore’a pierwotnie zakładało, że liczba umieszczonych na mikroprocesorze tranzystorów będzie się podwajała co półtora roku. Dekadę później Moore zmodyfikował swoje twierdzenie: liczba mikroprocesorów miała się odtąd podwajać co dwa lata. Chociaż prawo Moore’a było raczej prawidłowością sformułowaną na podstawie obserwacji, przez lata zachowywało zadziwiającą trafność. Dopiero w ostatnich latach tempo miniaturyzacji zaczęło wyhamowywać. Zmniejszanie się wielkości urządzeń mechanicznych, optycznych i elektronicznych doprowadziło do utworzenia tranzystorów o rozmiarach bliskich atomom. Według raportu Semiconductor Industry Association z 2015 r., zbliżamy się do fizycznej granicy wielkości mikroprocesora. Jej osiągnięcie nie kończy jednakże kariery prawa Moore’a, które dotyczyło jedynie okresowego podwajania się liczby tranzystorów na równej powierzchni, a współcześnie stawia się na struktury trójwymiarowe. Możliwe jednak, że granica kilku nanometrów jest tylko kolejną tymczasową barierą, która zostanie pokonana za sprawą komputerów kwantowych.

Miniaturyzacja sprawiła, że komputery stały się mniejsze i tańsze. Pojawienie się procesora Intel 8008 przyczyniło się do powstania pierwszych mikrokomputerów (np. francuskiego Miracle), co w latach 70. zaowocowało fenomenem komputerów osobistych (personal computers, pecety, komputery biurkowe). W 1977 r. firma Apple Computers, założona przez Steve’a Jobsa i Steve’a Wozniaka, zaczęła sprzedawać model Apple II, który szybko zagościł nie tylko w biurach, ale i w domach Amerykanów. W odróżnieniu od wcześniej sprzedawanych komputerów domowych, Apple II miał kolorowy wyświetlacz, klawiaturę i imponujące jak na tamte czasy 48 KB pamięci RAM. Z kolei w 1981 r. na rynek wszedł pierwszy przenośny komputer Osborne 1 – wprawdzie nie miał baterii, ale ważył ok. 10 kg, więc można go było względnie swobodnie przenosić z miejsca na miejsce. Pierwsze komputery, które naprawdę można było trzymać na kolanach, pojawiły się pod koniec lat 80. Należał do nich np. Compaq LTE, za którego sprawą – jak pisała ówczesna prasa – posługiwanie się komputerem w podróży stało się równie łatwe jak w biurze” (co ciekawe, ten kiedyś najlżejszy laptop jest nadal używany do serwisowania niegdyś najszybszego auta na świecie – McLarena F1). Kolejnym punktem zwrotnym w rozwoju komputerów osobistych okazał się pierwszy PowerBook, wypuszczony na rynek przez Apple w 1991 r. Model wyznaczył nowy standard projektowania laptopów.

Liczba komputerów rosła w nierównomiernym, ale niepowstrzymanym tempie. W 1955 r. na świecie było tylko 250 komputerów, dekadę później – 20 tys. Używało ich wojsko, uniwersytety i instytucje publiczne. W 1977 r. sprzedano 48 tys. komputerów osobistych, w 2001 r. – 125 mln. Łącznie między 1970 a 2014 r. sprzedano ok. 1 mld komputerów osobistych. W krajach wysoko rozwiniętych komputer jest w niemal każdym gospodarstwie domowym.

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj