7 starych technologii, których nie potrafimy zastąpić

To co bardziej nowoczesne zazwyczaj wydaje się lepsze. Wciąż jednak stosujemy wiele starych, a nawet archaicznych rozwiązań technologicznych. Nie potrafimy ich zastąpić. A może nie chcemy, chociaż mamy taką możliwość? Świat pełen superszybkich komputerów, procesorów, które upchnąć można wszędzie, internetu, który jest w stanie połączyć się z każdym niemal przedmiotem, ma też inne oblicze.

Promieniowanie rentgenowskie

Promieniowanie rentgenowskie odkryto w zasadzie przypadkiem, w 1895 roku, kiedy Wilhelm Roentgen, niemiecki fizyk, przeprowadzał doświadczenia związane z promieniowaniem katodowym. I chociaż technologia ma ponad sto lat, a my wymyśliliśmy już PET (o którym poniżej), promienie X wciąż wykorzystywane są do diagnostyki.

Wszystko przez to, że technologia nadal się sprawdza, jest bardzo tania i "prosta w obsłudze". Za pomocą promieniowania rentgenowskiego badać można nie tylko złamane kości, które w oczywisty sposób stają się widoczne, gdyż pochłaniają najwięcej promieniowania X. Metoda może być wykorzystywana również do badania układu pokarmowego czy moczowego - wystarczy tylko zastosować odpowiedni kontrast.

Promieniowanie X to nie tylko zdjęcie rentgenowskie

To samo promieniowanie, które pozwala na wykonanie prostego zdjęcia, jest też wykorzystywane w tomografii komputerowej. Zaczęto ja stosować już w roku 1972. Tomograf skanuje ciało badanej osoby promieniami X. Jak podaje Wikipedia zbiera podczas badania aż kilkadziesiąt tysięcy projekcji głowy w dwóch warstwach. Pojedyncze prześwietlenie trwało 4 - 5 minut. Typowe badanie, ok. 25 minut.

Dane z tomografu muszą jeszcze zostać zwizualizowane. Używane są do tego komputery, który przetwarzają informacje na obraz.

Zastąpić promienie X?

Obecnie istnieją już tomografy, które korzystają z innego promieniowania. PET, czyli emisyjna tomografia pozytonowa polega na badaniu promieniowania gamma. Dobrze nadają się do wykrywania nowotworów. Obrazowanie metodą rezonansu magnetycznego również nie wykorzystuje promieniowania rentgenowskiego, pozwala na badanie tkanek miękkich. Pomimo olbrzymich zalet tych technologii medycyna jeszcze długo będzie wykorzystywać znane od ponad wieku promieniowanie X.

Myszka i klawiatura

Klawiaturę komputerową (sprawdźcie jak wiele tajemnic w sobie kryje) wymyślono w roku 1960. W 1963 powstała mysz komputerowa. I chociaż powstają nowe technologie, nowe urządzenia, to od pięćdziesięciu lat korzystamy właśnie z takiej metody interakcji z komputerem.

Zaprotestujecie: udało się nam przecież wprowadzić nowszą, dotykową technologię do smartfonów. Ale w pracy, biurze, szkole, zestaw klawiatura i myszka wydają się po prostu nie do zastąpienia, prawda?

Zastąpić klasyczny komputer?

Fot. Intel

 

Tutaj sprawa jest już mniej oczywista. Co to dziś znaczy "klasyczny komputer"? Wystarczy monitor, klawiatura z myszką i urządzenie, które wpinamy na w port HDMI. I już - mamy klasyczny komputer. Gracze pewnie się żachną, że takie rozwiązanie to tylko zabawka, ale pracownicy biurowi, księgowi, sekretarki, dziennikarze, pewnie mogą pracować równie wydajnie na komputerze ukrytym w "patyku".

Tablety już można położyć obok monitora zmieniając je w komputer (korzystając z wysyłania obrazu po WiFi). Zastąpienie "na tym samym biurku" klawiatury z myszką wydaje się dziś w zasadzie niemożliwe.

Alternatywy?

Technologie, które mają zastąpić znany nam od 50 lat sposób na interakcje z komputerem powstają. Stworzyliśmy czujniki rozpoznające gesty, śledzące ruchy gałek ocznych, a nawet takie, które analizują nasze fale mózgowe. To wszystko jednak eksperymenty, technologie bardzo przydatne do jednych zastosowań i kompletnie nienadające się do tych podstawowych.

Wiecznie rozładowany akumulator - utrapienie właścicieli smartfonów Wiecznie rozładowany akumulator - utrapienie właścicieli smartfonów Fot. Flickr.com

Baterie i akumulatory

W tej dziedzinie zachodzą ciągłe zmiany, jednak bez względu na rodzaj urządzenia elektrycznego bądź elektronicznego, to jeśli jest przenośne - musi mieć akumulator lub baterię. Tu dowiecie się o nich znacznie więcej.

Szczególnie oporne na wprowadzanie innowacji są... smartfony. Wydają się ultranowoczesne, jednak większość producentów stosuje znane od dekad metody wytwarzania akumulatorów.

Powody opieszałości we wprowadzaniu nowych rozwiązań są po części zrozumiałe. Zbudowanie fabryki akumulatorów wymaga po prostu gigantycznych nakładów. Tak dużych, że nikt nie chce zaryzykować inwestując w nowe rozwiązania.

Tymczasem kluczem do uzyskania przełomowo wydajnych i tanich akumulatorów jest właśnie innowacyjny proces produkcji. Na takie rozwiązanie postawiła firma stworzona przez Yet-Ming Chianga. Zamiast skupiać się na wymyśleniu czegoś od nowa postanowiono usprawnić, zoptymalizować, ulepszyć proces wytwarzania standardowych akumulatorów. Ching ma na tym polu konkretne osiągnięcia - powierzchnia jego fabryki jest czterokrotnie mniejsza od konkurencyjnych. Już tylko to przełoży się i na efektywność i na końcową cenę akumulatora.

Na czym jeszcze polega innowacyjność technologii opracowanej przez pana Chianga? Wytwarza akumulatory o zwiększonej pojemności bez znaczącego zwiększania ich rozmiarów. Tesla nie musi tak bardzo martwić się o rozmiar swojego akumulatora - w samochodzie da się zmieścić baterię przesuwając inne elementy. W telefonie, urządzeniu przenośnym, zbyt duży rozmiar akumulatora kompletnie go dyskwalifikuje.

W tradycyjnym akumulatorze 35% objętości zajmują części, które nie zapewniają wytwarzania energii. Coś musi oddzielać katodę i anodę, coś musi scalać elementy akumulatora w całość. Chiang zredukował ilość miejsca "zajmowanego" przez elementy konstrukcyjne akumulatora. Ogniwo tradycyjnego akumulator składa się z czternastu warstw. Chiang stworzył ogniwo składające się z pięciu. Akumulatory, które znamy, wymagają procesu suszenia. Akumulatory tajwańskiego wynalazcy tego procesu nie potrzebują. Wręcz przeciwnie - wykorzystują przełomowy, półpłynny elektrolit. W jego produktach zmniejszono też znacząco objętość spoiwa - zajmuje tylko 8% objętości. Tylko jeden z procesów technologicznych niezbędny do wyprodukowania tradycyjnego akumulatora zajmuje 22 godziny. Chiang zredukował ten czas do... jednej godziny.

Potrafimy zatem usprawnić proces produkcji akumulatorów. Nie jesteśmy w stanie w pełni zastąpić baterii chemicznej.

Garłacze Garłacze Fot. rockislandauction.com

Klasyczna broń

Nic nie napędza rozwoju nowoczesnych technologii tak bardzo jak wyścig zbrojeń. Wyposażenie armii staje się coraz bardziej nowoczesne, powszechne staje się użycie dronów będących w stanie przenosić pociski. Potrafimy sterować nimi z odległości tysięcy kilometrów. A jednak nie potrafimy zastąpić klasycznej broni.

Lancę ognistą znano już przed X wiekiem. Bambusowa rurka wypełniona prochem i fragmentami metalu (siekańcami) potrafiła "wystrzelić" na odległość dwóch metrów. Broń palna, która powstawała na przestrzeni kolejnych wieków, była w zasadzie udoskonaleniem tej samej idei: zarówno szesnastowieczny garłacz jak i M16, karabin automatyczny, pozwalają wystrzelić pocisk.

Warto dodać, że podany tu jako przykład garłacz to broń skonstruowana w XVI w. w Holandii. Ma nieprzypadkowy kształt lufy - jej rozszerzenie miało ułatwić oddawanie celnym strzałów na... pokładzie rozkołysanego falami okrętu. Garłacz - zwany też tromblonem - był bronią stworzoną dla marynarzy.

Jego zaletą była możliwość stosowania różnego rodzaju amunicji (zwykłego naboju oraz specjalnych pocisków zwanych siekańcami, które raziły nieprzyjaciela ogromną ilością drobnych odłamków).

Czarne skrzynki

Skoro samoloty mogą już określać swoją pozycję wykorzystując satelity nasuwa się pytanie dlaczego tą samą drogą nie można przesyłać danych z czarnych skrzynek. To pozwoliłoby uniknąć sytuacji, w których ich nieodnalezienie uniemożliwia wyjaśnienie przyczyn katastrofy.

Kwestię tę wyjaśnili Piotr Stanisławki i Łukasz Józefowicz w swoim materiale poświęconym katastrofie lotu Malaysia Airlines.

Czy dane z czarnych skrzynek mogą być przesyłane za pomocą satelitów? Otóż mogą. Przynajmniej z technicznego punktu widzenia. W czasie, gdy samolot znajduje się nad lądem informacje mogą być przesyłane do naziemnych stacji przekaźnikowych. Problem pojawia się nad morzami - tu jednak można wysyłać dane przez satelity.

Uszkodzona czarna skrzynka z egipskiego samolotu, który rozbił się w 1999 roku

Dlaczego więc wciąż się tego nie robi? Odpowiedź nie jest łatwa - a właściwie odpowiedzi jest wiele. Najważniejsza to pieniądze. Zainstalowanie w istniejących samolotach nowego systemu wymagałoby dużych modyfikacji. Po pierwsze to kwestia zmian w obecnych systemach rejestrowania parametrów lotu, a więc czarnych skrzynkach. Zdaniem większości ekspertów powinny one pozostać na pokładzie jako główne miejsce zapisu danych. Jednak należałoby tak je dostosować, by informacje mogły być równocześnie przekazywane do systemu transmitującego je na ziemię. Po drugie konieczna byłaby instalacja anten nadających sygnał - jednych do transmisji nad lądem, drugich działających nad morzami.

Do tego dochodzi koszt ciągłej transmisji danych i przechowywania tych informacji. Gdy jedna z firm produkujących czarne skrzynki (a jest ich ledwie kilka), L-3 Communications, szacowała kilkanaście lat temu koszty całego przedsięwzięcia, mówiła o 300 mln dolarów rocznie przypadających na każdą globalnie działającą linię lotniczą. To jednak stare wyliczenia (inne koszty transmisji danych), które w dodatku pochodzą od strony żywo zainteresowanej rozwojem (lub brakiem rozwoju) tej technologii.

Miejsce umieszczenia czarnej skrzynki na pokładzie samolotu

I tu już wpadamy w obszar, gdzie nic nie jest jasne. Ścierają się bowiem interesy kilku grup. Z jednej strony to organizacje takie jak Europejskiej Agencji Bezpieczeństwa Lotniczego (EASA) czy amerykańska Federalna Administracja Lotnictwa (FAA), które dbają o bezpieczeństwo lotu i wydają obowiązujące przepisy. Z drugiej są linie lotnicze, którym zależy na bezpieczeństwie, ale też na oszczędnościach. Kolejna grupa to wspomniani producenci czarnych skrzynek. I wreszcie piloci mający często własne argumenty i, nieraz zaskakujące, obawy.

Właśnie ta ostatnia grupa mogła być przyczyną zablokowania w USA przepisów dotyczących przesyłania danych na żywo. Krishna M. Kavi, profesor nauk komputerowych z University of North Texas pisał w 2010 roku w serwisie IEEE Spectum o prowadzonym przez siebie projekcie, który miał udoskonalić transmisję danych z samolotu. Jego propozycja opiera się na urządzeniu przełączającym się między różnymi systemami przesyłania informacji - sieciami komórkowymi, wykorzystywanym przez satelity paśmie Ku czy specjalnie do tego przeznaczonych stacjach odbiorczych.

Obecnie przepisy wymagają rejestrowania 88 parametrów lotu, jednak w większości samolotów zapisywanych jest ich znacznie więcej - nawet ponad 3000. Nie wszystko jednak trzeba przesyłać stale. Kavi proponuje, by więcej danych wysyłano w czasie startu i lądowania, gdy parametry zmieniają bardzo szybko, a jednocześnie łatwo jest o dostęp do wydajnego systemu transmisji. Podczas normalnego lotu strumień informacji staje się węższy, jednak w razie pojawienie się niepokojących sygnałów samolot znowu zaczyna wysyłać wszystkie parametry.

Brzmi to bardzo sensownie, jednak... wciąż nie działa. Co zaskakujące Krishna M. Kavi opracował swój pomysł już w 2000 roku i stale go udoskonalał. W swoim tekście pisze komu nie w smak byłby taki system. To przede wszystkim piloci zrzeszeni w amerykańskim związku zawodowym, którzy postrzegają taką ciągłą transmisję jako inwigilację i ciągły monitoring ich pracy. Już w 2000 roku nie dopuścili do wprowadzenia w kabinach kamer zapisujących rozgrywające się tam wydarzenia.

Amerykański opór dla wprowadzanie tej technologii nie oznacza jednak całkowitej blokady. Airbus od kilku lat pracuje nad takimi rozwiązaniami. Zapytaliśmy przedstawicieli firmy o to, dlaczego wciąż nie są one powszechnie stosowane. Airbus wskazuje na koszty transmisji, ale też mówi o wiarygodności takich danych, które przesyłane przez różne sieci mogłyby zostać przechwycone i/lub zmodyfikowane.

Zdaniem firmy obecnie stosowane rozwiązania są wystarczające w przypadku lotów nad lądem, gdzie w razie katastrofy odzyskuje się czarne skrzynki w 98% przypadków. Natomiast wypadki nad morzami to 10 procent wszystkich takich zdarzeń.

Radary

Samoloty są naszpikowane najnowocześniejszą elektroniką. Niestety zarówno kontrola lotu jak i praca na lotnisku wiąże się z koniecznością używania radarów.

Procedury kontroli lotów opierają na starych technologiach. Kontrolerzy komunikują się z samolotami za pomocą radia, wykrywają ich położenie za pomocą radarów, porozumiewają się między sobą za pomocą klasycznych telefonów.

W tej chwili nie jesteśmy jeszcze w stanie w stu procentach zastąpić radaru. To on jest głównym i najważniejszym narzędziem informującym o położeniu samolotu.

Radar

W samolotach pojawia się już coś, co ma radar wyeliminować - to technologia ADS-B. Samolot określa swoją pozycję za pomocą nawigacji satelitarnej. Na dzień dzisiejszy jednak radar nadal jest wykorzystywany w lotnictwie.

Na dzień dzisiejszy ponad 60% wszystkich samolotów pasażerskich (70% w Europie, 30% w USA) jest wyposażonych w transponder ADS-B. Ich liczba stale się zwiększa ponieważ ADS-B ma zastąpić radar jako pierwszorzędny sposób kontroli samolotów. Dodatkowo poza danymi ADS-B, Flightradar24 pobiera dane z FAA (Federal Aviation Administration). Dane te bazują na danych radarowych i zawierają cały komercyjny ruch w przestrzeni powietrznej Stanów Zjednoczonych oraz Kanady. W przeciwieństwie do ADS-B dane te przekazane są z około 5 minutowym opóźnieniem z powodu regulacji FAA. Na mapie radaru online FR24 wszystkie samoloty widoczne dzięki danym z FAA są koloru pomarańczowego. Flightradar24 pokrywa swoim zasięgiem ponad 90% powierzchni Europy, a także posiada zasięg w USA, Kanadzie, Australii, Brazylii, Japonii i innych częściach świata. Działalność Flightradar24 opiera się na wolontariuszach udoskonalających zasięg na całym świecie. - Czytamy na portalu Polishbirda.cba.pl

Mimo wszystko zanim lotniska zaczną działać na innych zasadach, niż te, które obowiązują od dekad, upłynie sporo czasu. Branża lotnicza będzie wymagała skokowego przejścia na zupełnie nową technologię, a to może być po prostu zbyt ryzykowne. Kto odważy się położyć na szali ludzkie życie, nawet jeśli chodzi o gigantyczny rozwój technologiczny?

Sygnalizacja świetlna

Sygnalizacja świetlna opiera się od stu lat na niemal niezmienionych zasadach. I pomimo rozwoju technologii chyba nie potrafimy jej zastąpić.

Pierwowzorem znanego nam sygnalizatora było- jak podaje Wikipedia - urządzenie zamontowane na skrzyżowaniu ulic Bridge Street i New Palace Yard w Londynie, niedaleko Pałacu Westminsterskiego. Konstruktorem jej był inżynier kolejnictwa J.P. Knight. Sygnalizację uruchomiono 10 grudnia 1868 r. Był to sterowany ręcznie semafor z lampą gazową, która wysyłała zielone i czerwone sygnały.