Historia powstania pecetów obfituje w dramatyczne zwroty akcji jak dobry kryminał. Kiedy śledzimy te dzieje, aż dziw bierze, że w węzłowych momentach historia nie potoczyła się innymi ścieżkami. Przez lata wielu głównych bohaterów traci na znaczeniu lub znika ze sceny i zastępują ich inni. Zwierzę zwane pecetem urywa się ze smyczy, a wszystko przez garść genialnie trafionych lub okrutnie chybionych decyzji.
Dawno, dawno temu, w roku 1973 w swoim centrum badawczo rozwojowym w Palo Alto firma Xerox dysponowała urządzeniem, które śmiało mogło rozpocząć rewolucję komputerów osobistych. Model Alto, nazywany przez inżynierów „małym systemem komputera osobistego” miał myszkę, graficzny interfejs użytkownika, edytor tekstu zwany Bravo, edytor grafiki zwany Draw oraz sieciową trójwymiarową strzelankę Maze War. To tak jakby dzisiaj nasz sąsiad z mieszkania obok trzymał w garażu latający samochód, ale nie wyjeżdżał nim na miasto, tylko skrywał pod plandeką. Przecież myszka, GUI i inspirowany Bravo edytor tekstu Word pojawiły się ponad dekadę później, a strzelanki 3D prawie dwie dekady później, począwszy od gry Wolfenstein 3D.
Dlaczego mając taką bombę atomową, firma nie wypuściła Alto na rynek i pozostał on wyłącznie ciekawostką badawczą dla własnych inżynierów oraz wybranych uniwersytetów? Xerox niemałe pieniądze zarabiał na biurowych drukarkach laserowych i maszynach do kopiowania. Zresztą od nazwy tej firmy wzięło się słowo „ksero”. Ważni panowie w garniturach uznali, że rozpowszechnienie elektronicznej obróbki dokumentów byłoby zagrożeniem dla dokumentów drukowanych i po prostu zamietli „Alto” pod dywan, żeby nie bruździł. W 1979 roku Xerox wypuścił na rynek komercyjną wersję Alto pod marką „Star”, ale zaporowa cena rzędu 16 tysięcy dolarów – zapewne by dalej chronić biznes związany z tradycyjnym drukiem – sprawiła, że nikt go nie kupował.
Futurystyczne pomysły nie poszły jednak zupełnie na zmarnowanie. Również w 1979 roku centrum badawczo-rozwojowe Xerox odwiedził 24-letni Steve Jobs z Apple. Nie ukrywał swojego podniecenia, oglądając demonstrację Alto. Miał wtedy powiedzieć: „Siedzicie tu na kopalni złota”. Graficzny interfejs użytkownika użyty w Alto tak zainspirował Jobsa, że w 1984 roku wypuścił na rynek komputer Apple Macintosh z bardzo podobnym graficznym interfejsem. Dzisiaj Apple to największa firma świata, która w 2018 roku jako pierwsza przekroczyła wartość biliona dolarów. Z perspektywy czasu wizyta Jobsa w Xerox wygląda jak wpuszczenie lisa do kurnika. Jak poważni biznesmeni z Xerox do tego dopuścili? W zamian za odwiedziny Jobsa i jego inżynierów Xerox dostał prawo zakupu akcji Apple przed wejściem firmy na giełdę w 1980. Transakcja opiewała na 100 000 akcji w cenie 10 dolarów, o 12 dolarów taniej niż na giełdowym debiucie. Pewnie wtedy wydawało się to dobrym interesem.
Zanim jednak na scenie pojawia się Mac, w sierpniu 1981 znana i szanowana na rynku poważnych maszyn obliczeniowych firma International Business Machines wypuszcza na rynek model IBM 5150 Personal Computer. Cena wynosiła 1565 dolarów i choć w przeliczeniu na dzisiejszą wartość dolara byłoby to ze trzy razy więcej zielonych, to mogła być uznawana za przystępną. To właśnie to nudne szare pudełko było kamyczkiem, który rozpoczął lawinę.
Model 5150 nie był pierwszym mniejszym komputerem IBM. W 1975 premierę miał IBM 5100 zwany przez twórców komputerem przenośnym. Na sprzęt osobisty miał zdecydowanie zbyt wysoką cenę. Zależnie od konfiguracji pamięci i języka programowania – do wyboru APL i BASIC – wynosiła od 8975 do 19 975 dolarów. Trzy lata później ukazał się IBM 5110, a za kolejne dwa lata IBM 5120 zwany komputerem profesjonalnym. Oba w zbliżonych widełkach cenowych. Firma w tym samym czasie sprzedawała duże systemy komputerowe, takie jak IBM System/370, gdzie cena pojedynczej instalacji wynosiła orientacyjnie od 2 do 4,5 miliona dolarów. Co zrozumiałe, to takie bestie były oczkiem w głowie zarządu i napędzały przychody koncernu, a nie eksperymenty z małymi komputerkami zabawkami.
Projekt nowego komputera osobistego stanął na forum komitetu inwestycyjnego firmy w lipcu 1980, czyli rok przed premierą. Prezentujący Bill Lowe, dyrektor laboratorium systemów podstawowych, postawił sprawę jasno: aby projekt się udał, należy wykorzystać dostępne na rynku gotowe komponenty, takie jak procesory, oraz nawiązać współpracę z firmami zewnętrznymi w zakresie oprogramowania. Inaczej w molochu takim jak IBM rzecz ugrzęźnie w biurokracji i procedurach, a na koniec będzie zbyt droga. Decyzja o zastosowaniu po raz pierwszy innych niż wyprodukowanych przez IBM procesorów i oprogramowania była brzemienna w skutki. Można tylko się domyślać, że przeszła przez głosowanie kierownictwa, ponieważ dotyczyła niszowego produktu firmy. Gdyby z podobną propozycją ktoś wyskoczył w stosunku do komputerów mainframe, byłaby zapewne z miejsca ustrzelona jako niedorzeczna i niezgodna z wartościami firmy.
Od początku cechą IBM PC była otwarta architektura, która umożliwiała wykorzystywanie urządzeń peryferyjnych, kart rozszerzeń i oprogramowania firm trzecich. Pełna otwartość nie była tylko wymysłem inżynierów czy miękkich serc dżentelmenów z zarządu firmy. Ważnym powodem był też tak zwany dekret zezwalający z roku 1956. IBM był wtedy najbardziej wartościową firmą na świecie, jego akcje były warte mniej więcej tyle, co wszystkich pozostałych amerykańskich spółek giełdowych razem wziętych. Firmę czekał proces antymonopolowy. Zarzucano jej różnorakie praktyki ograniczające konkurencję na rynku systemów do kart dziurkowanych oraz elektronicznych maszyn do przetwarzania danych. Doszło jednak do porozumienia z rządem USA, czego efektem był właśnie wspomniany dekret, nakładający różnorakie zobowiązania na IBM. Jednym z nich był obowiązek dostarczania specyfikacji oraz dokumentacji technicznej każdemu, kto posiada, naprawia, utrzymuje lub dystrybuuje sprzęt komputerowy IBM.
Aby zrozumieć w pełni kontekst, trzeba dodać, że w czasie, kiedy rodził się IBM PC, trwało wielkie postępowanie antymonopolowe przeciwko telekomunikacyjnej firmie AT&T, które zakończyło się wymuszonym podziałem firmy w 1982 roku. Podobny scenariusz mógł spotkać IBM, gdyby ostentacyjnie zrobił ze specyfikacji komputera osobistego oblężoną twierdzę i od początku wykluczył konkurencję poprzez patenty. Decydenci woleli dmuchać na zimne. Kalkulacja mogła być taka, że otwarta specyfikacja napędzi naśladowców, którzy spopularyzują standard, a IBM zachowa nad wszystkim kontrolę, tak jak z sukcesem robił to przez lata na rynku dużych komputerów. Tylko, jak się okazało, pecety mnożyły się jak króliki, a nie jak słonie.
Pierwsza decyzja, która ustawiła rynek na kolejne dekady, to wybór partnera do procesora. Założenia projektowe były takie, że ma być on 16-bitowy, aby nie ograniczać pamięci do 64 KB, jak to miało miejsce w procesorach 8-bitowych. Procesor musiał być dostępny od razu w dużych ilościach wraz z układami peryferyjnymi. Pożądane było też, żeby IBM pracował z tym dostawcą wcześniej i znał jego sprzęt, a nie szkolił się od nowa. Ostatnie wymaganie to dostępność gotowego oprogramowania na dany procesor. W zasadzie w grę wchodził tylko Intel 8086 lub Motorola 68000. Motka była nowsza, mocniejsza, ale blisko trzykrotnie droższa. Intel byłby odpowiedni, ale pojawiły się obawy kierownictwa, czy też nie jest zbyt mocny. Aby zdecydowanie pozycjonować sprzęt PC w niższej kategorii niż większe komputery IBM, wybrano o oczko słabszy układ Intel 8088, który miał wewnętrznie taką samą 16-bitową architekturę jak 8086, ale tylko 8-bitową szynę danych.
Dodatkowo w 1982 roku IBM zainwestował 250 milionów dolarów w akcje kulejącego Intela, aby zapewnić mu finansowanie na badania i rozwój kolejnych generacji procesorów do IBM PC. Inwestycja okazała się opłacalna podwójnie, bo założony cel strategiczny został osiągnięty, a po kilku latach akcje Intela sprzedane z zyskiem. A sam Intel przez współpracę z IBM został wywindowany na szczyt, stając się na długie lata największym producentem układów scalonych. Zdetronizował go dopiero w 2018 koreański Samsung.
Nowy komputer osobisty potrzebował systemu operacyjnego. Standardem dla mniejszych komputerów był wtedy CP/M – Control Program for Microcomputers. Jego twórca Gary Kildall oraz jego firma Digital Research Inc. byłyby naturalnym wyborem. Do spotkania między firmami doszło, choć sam Kildall nie stawił się. Jak sam później twierdził, był na innym spotkaniu biznesowym, a złośliwi twierdzili, że wyszedł polatać swoim samolotem. Rozmowy z ramienia firmy prowadziła jego żona, która podobno odmówiła podpisania jednostronnej umowy o zachowaniu poufności, zapewne obwarowanej drakońskimi karami za każde naruszenie. Bez zapewnienia poufności IBM nie chciał wyłuszczyć, o co chodzi, a negocjacje skończyły się, zanim się zaczęły. Digital Research bez oglądania wyrzucił do śmietnika wygrywający los na loterii. Mimo niezaprzeczalnych zasług dla branży komputerowej marka zniknęła, wykupiona przez Novella w 1991 roku.
Traf chciał, że ówczesny prezes IBM John Opel zasiadał w komitecie wykonawczym znanej charytatywnej organizacji United Way of America. W tym samym komitecie służyła również Mary Maxwell Gates, która prawdopodobnie wspomniała swojemu koledze o dynamicznie rozwijającej się firmie syna. Pierwotnie IBM chciał zakupić od Microsoftu tylko języki programowania: BASIC, COBOL, Fortran i Pascal. Finalnie strony dogadały się na 45 000 dolarów za system operacyjny, 310 000 dolarów za języki oraz 75 000 dolarów za adaptacje, testy i konsultacje. IBM prawdopodobnie spodziewał się dużo wyższych opłat, w szczególności za każdą kopię oprogramowania, co być może uśpiło jego czujność. Nie wymógł wyłączności i pozwolił firmie Microsoft zachować prawo do licencjonowania oprogramowania, w tym systemu operacyjnego, innym producentom sprzętu. Najwyraźniej nie sprawdził też należycie potencjalnego partnera, bo w momencie podpisywania kontraktu Microsoft nie miał w swoim portfolio systemu operacyjnego. Czyżby dla IBM aż tak ważne było dopieczenie Kildallowi?
Napisanie przez Microsoft od zera systemu operacyjnego w czasie krótszym od jednego roku było nierealne. Firma zakupiła więc klona systemu CP/M od firmy Seattle Computer Products w cenie 10 000 dolarów plus dodatkowe 15 000 dolarów za każdą firmę licencjobiorcę. Pierwotnie rzecz nazywała się QDOS od Quick and Dirty Operating System. IBM zmienił nazwę na PC DOS i dodawał go do IBM PC w cenie 40 dolarów. A Microsoft sprzedawał ten sam system każdemu innemu chętnemu dostawcy sprzętu. Producenci komputerów bili się o udziały w rynku, a Microsoft zarabiał na każdej sztuce za sprawą oprogramowania. Dzisiaj jest jedną z największych i najbardziej dochodowych firm branży IT.
Aby sprzęt działał z systemem operacyjnym, potrzebny był jeszcze jeden ważny element i ten IBM zachował już tylko dla siebie, a przynajmniej takie były intencje. BIOS, czyli Basic Input Output System, do dziś widzimy w akcji na samym początku uruchamiania komputera, zanim załaduje się system operacyjny. W oryginalnym IBM PC funkcją BIOS było dodatkowo pośredniczenie pomiędzy systemem operacyjnym a sprzętem. Jeśli oprogramowanie byłoby napisane zgodnie z zaleceniami IBM, czyli bez bezpośrednich odwołań do sprzętu, tylko poprzez BIOS, to po zmianach sprzętu np. w kolejnym modelu, oprogramowanie dalej funkcjonowałoby bez konieczności dokonywania żadnych zmian. Była to metoda wolniejsza, ale zapewniająca kompatybilność. Jak się również wydawało, skoro IBM zastrzegł BIOS, a całe oprogramowanie odwoływało się do niego, temat nieautoryzowanego kopiowania sprzętu był załatwiony.
Jak czas pokazał, stało się inaczej. Oczywiście przekopiowanie żywcem kodu BIOS z kości IBM do własnej narażało kopiującego na kosztowny proces z IBM. Podobnie jak korzystanie ze szczegółowej dokumentacji IBM. Rozwiązaniem było zastosowanie metody „czystego pokoju”. W pierwszym etapie osoba, która czytała dokumentację IBM oraz robiła reverse engineering kodu BIOS, pisała specyfikację. Specyfikacja ta nie mogła sugerować sposobu implementacji i była pod tym kątem sprawdzana przez prawników. Następnie taką specyfikację przekazywano do programistów, którzy nie zetknęli się wcześniej z BIOS i dokumentacją IBM. Programiści pisali na nowo BIOS, który działał tak samo, ale był napisany od podstaw. Nawet jeśli jakieś partie kodu wyglądały idealnie tak samo jak te w IBM, można było przed sądem udowodnić, że powstały zupełnie niezależnie. Pierwszy komputer mocno kompatybilny z IBM PC, zwany Compaq Portable, trafił do sprzedaży w 1982 roku i od tego momentu zaczęła się fala wznosząca firmy Compaq. Podobnego wybiegu użyła firma Phoenix Technologies, osiągając właściwie 100-procentową zgodność BIOS z IBM PC. Od 1984 roku kości z Phoenix BIOS mógł legalnie kupić każdy producent sprzętu, a od 1986 był dostępny dodatkowo AMI BIOS oferowany przez firmę American Megatrends. Dzięki dostępności BIOS komputery klony – kompatybilne z IBM PC, ale przynajmniej dwukrotnie tańsze – zaczęły sukcesywnie opanowywać rynek kosztem sprzętu IBM.
Pewną ironią losu jest to, że koncepcja BIOS, jako zestawu procedur zapisanych w pamięci stałej ROM, została pierwotnie opracowana przez Gary’ego Kildalla na potrzeby wyabstrahowania od sprzętu systemu CP/M. Tego samego Kildalla, który został wcześniej wykolegowany z systemu operacyjnego przez tandem IBM i Microsoft.
W 1984 IBM próbował dotrzeć do użytkowników domowych, wypuszczając model IBM 4860 o nazwie PC Junior, z lepszą grafiką i dźwiękiem. Przy wszystkich zaletach IBM PC Junior firma zadbała, by nie konkurował zbytnio z tradycyjnym rynkiem IBM PC. Junior był tylko częściowo kompatybilny, przez co część aplikacji biznesowych mogła nie uruchamiać się poprawnie. Dodatkowo miał cenę zbliżoną do komputerów biurowych. Jak się okazało zbyt wysoką na przeciętny rodzinny budżet. Eksperyment z PC Juniorem skończył się szybko, bo już 1985 roku.
Wtedy została podjęta kolejna, jak się okazało, niezbyt szczęśliwa decyzja. Intel wprowadził na rynek nowy procesor 80386. Decydenci, zapewne obawiając się, że zbyt mocne komputery osobiste mogą być zagrożeniem dla przychodów firmy z systemów serwerowych, postanowili nie wdrażać tego procesora w linii IBM PC. Powstałą lukę w ofercie wykorzystał między innymi Compaq, udostępniając jako pierwszy model Deskpro 386. To jest ten moment, kiedy IBM zaczyna tracić rolę lidera wyznaczającego standardy PC.
W 1987 roku IBM próbował okiełznać i podporządkować sobie wymykający się rynek. W tym celu wypuścił nową generację sprzętu, która miała zastąpić popularne IBM PC. Nazywała się IBM PS/2 od Personal System/2. Nowy komputer był technologicznie bardziej dopracowany, ale nie miał już w pełni otwartej architektury. Aby wykorzystać nową szynę systemową w standardzie Microchannel, była potrzebna licencja od IBM, dzięki czemu firma mogłaby zarabiać nie tylko na sprzedaży własnych kart rozszerzeń, ale też sprzętu każdej innej firmy, która by chciała go produkować. To oczywiście nie spodobało się innym rynkowym graczom. Niedoszłe owce do strzyżenia skupiły się pod wodzą firmy Compaq w konsorcjum zwanym potocznie „gangiem dziewięciu”, by opracować alternatywny otwarty standard Extended Industry Standard Architecture. Specyfikacja EISA była gotowa w 1988 roku. Decyzja o promowaniu przez IBM zamkniętej architektury odbijała się czkawką. Rynek nie tylko nie podporządkował się nowemu standardowi, ale uciekł do przodu z własnym.
Już w 1994 roku Compaq wyprzedził IBM jako największy na świecie dostawca komputerów osobistych. Doszło do tego, że w fachowych kręgach nie mówiło się już o kompatybilności z IBM PC, tylko o kompatybilności z Compaqiem. Szczytowa forma przypada na rekordowy dla firmy rok 1998, ale i dla nich wkrótce potem zaczął się zjazd. Na fali sukcesu firma zainwestowała gigantyczne 9 miliardów dolarów w przejęcie firmy DEC, co okazało się niewypałem. Największym zagrożeniem była jednak pomysłowa konkurencja, która pomijała tradycyjne kanały sprzedaży PC na rzecz sprzedaży bezpośredniej. W 2001 palma pierwszeństwa przeszła do Della. Rok później nastąpiła fuzja Compaqa z Hewlett-Packard, a wkrótce po niej marka Compaq odeszła w niebyt.
Dla IBM definitywny koniec przygody z komputerami osobistymi nastąpił w roku 2004. Firma była wtedy na trzecim miejscu w tym segmencie rynku z udziałem rzędu 5%. Liderzy w tym czasie to Dell, który ma prawie 17% oraz Hewlett-Packard, który po połknięciu Compaqa miał 15%. Dział pecetów przynosił straty i był zadłużony. Wall Street już od dłuższego czasu naciskało na IBM, żeby pozbyli się balastu. Szokujące dla niektórych było, że biznes pecetowy został sprzedany firmie z Chin. Transakcja z Lenovo miała wartość 1,75 miliarda dolarów, z czego 650 milionów w gotówce, 600 milionów w akcjach samego Lenovo oraz przejęcie zadłużenia w wysokości 500 milionów. Zainteresowani byli też inni kupcy, ale wartością dodaną umowy z Lenovo i powstałego joint-venture było strategiczne otwarcie olbrzymiego rynku chińskiego na usługi IBM, gdzie marże są wyższe niż na sprzęcie.
Na koniec narzuca się pytanie czy IBM mógł kwestię komputerów osobistych rozegrać zasadniczo lepiej? Dajmy na to położyć łapę na systemie operacyjnym, skuteczniej zablokować pojawienie się sprzętowych klonów, narzucić od początku opłaty za korzystanie z opracowanego przez siebie standardu. Paradoksalnie wszystkie te elementy, przez niektórych postrzegane jako strategiczne błędy, były właśnie źródłem sukcesu peceta i jego wielkiej popularności. Niewykluczone, że bez nich zachowano by pełną kontrolę, a i marże byłyby lepsze, ale produkt nigdy by się tak upowszechnił. Wtedy niechybnie masowym rynkiem zawładnęłaby jakaś inna firma. Przygoda z PC była istotnym epizodem, ale tylko jednym z wielu w ponadstuletniej historii IBM. Sukcesem firmy jest, że gdzie inni wzlatywali na szczyt, a potem padali jak muchy, IBM potrafił przetrwać, zmienić profil działalności, dalej się rozwijać i zarabiać.
Artykuł ukazał się w Pixelu #41, którego nakład został już wyczerpany. Zapraszamy jednak do sklepu Pixela po inne wydania drukowanego magazynu.