Jak to właściwie było z folią bąbelkową?

Wielu z nas oczywiście nigdy się do tego nie przyzna, ale nie ulega absolutnie żadnej wątpliwości, że każdemu zdarzyło się kiedyś dorwać w swoje ręce spory kawałek folii bąbelkowej, dzięki któremu spędziliśmy kilka uroczych chwil na ogłupiających przekłuwaniu kolejnych bąbelków.
W amerykańskich (no bo gdzieżby indziej?) poradniach psychologicznych w ciągu kilku ostatnich lat odnotowano już ponad 150 przypadków uzależnienia od destrukcyjnej zabawy folią bąbelkową. Tak – w dzisiejszych czasach ludzie są w stanie uzależnić się od absolutnie wszystkiego. Warto jednak przyjrzeć się samej genezie powstania folii bąbelkowej. Przytoczmy więc w tym miejscu kilka najważniejszych faktów.
Folia bąbelkowa została wynaleziona w 1957 roku przez dwóch amerykańskich inżynierów – Alfreda Fieldinga i Marca Chavannesa. Co w tym wszystkim najciekawsze, pierwotnym pomysłem obu panów było zaprojektowanie plastikowej, niebrudzącej się tapety. Nie spotkała się ona jednak z zainteresowaniem ze strony konsumentów, dlatego też nigdy nie weszła do masowej produkcji. Inżynierowie musieli więc pomyśleć o innym przeznaczeniu swojego produktu.
W ten właśnie sposób wpadli na pomysł, który w niedługim czasie przyniósł im wprost niewyobrażalne dochody. Skoro bowiem materiał ten składa się z pęcherzyków powietrza rozmieszczonych w regularnych odstępach, to musi być świetnym materiałem amortyzującym. Zwłaszcza jeżeli chodzi o niewielkie lub bardzo kruche przedmioty.
W ten oto sposób folia bąbelkowa zaczęła podróżować po całym świecie, jako materiał zabezpieczający wszelkiego typu przesyłki. Obecnie wykorzystują ją niemal wszystkie firmy kurierskie naszego globu. O tym, jak głęboko folia zakorzeniła się w światowej kulturze, najlepiej świadczy fakt, że w ostatni poniedziałek stycznia obchodzimy Bubble Wrap Appreciation Day, czyli „Dzień uznania dla folii bąbelkowej”.

Karteczki samoprzylepne, czyli od przypadku do biurowej rewolucji

Zastanawialiście się kiedyś, kto wymyślił małe samoprzylepne karteczki, które niemal codziennie przyklejamy w okolicach naszego komputera, aby nie zapomnieć o drobnych sprawach? Oczywiście, że nie, bo kto normalny ma na to czas? Dlatego też w tym miejscu chcielibyśmy przytoczyć Wam interesującą historię, która wcale nie wydarzyła się tak strasznie dawno temu.
Było to bowiem w roku 1970. Amerykański chemik, Spencer Silver, absolwent uniwersytetu stanowego w Arizonie, pracował w laboratoriach firmy 3M. Jego głównym zadaniem było stworzenie receptury nowego, bardzo mocnego kleju. Rozpoczął więc serię wielomiesięcznych testów, które niestety nie przynosiły oczekiwanych rezultatów. Dokonał jednak pewnej istotnej obserwacji, która (jak okazało się niedługo potem) przyczyniła się do absolutnej rewolucji w biurowej organizacji własnych obowiązków.
Silver zauważył, że kiedy odkleja od siebie kartki papieru, klej wciąż pozostaje w całości na jednej z nich. Teoretycznie, była to totalnie bezużyteczna informacja. Po upływie czterech lat w laboratorium pojawił się nowy współpracownik Spencera, którego popołudniowym zajęciem było śpiewanie w lokalnym chórze kościelnym. Często narzekał na wypadające zakładki, dlatego też wpadł na pomysł wykorzystania do tego celu przyklejanych karteczek. Posmarował je więc klejem Spencera i w ten sposób rozwiązał trapiący go problem.
Karteczki nie dość, że pozostawały na swoim miejscu, to w dodatku nie niszczyły stron śpiewnika po ich odklejeniu. W ten właśnie sposób powstały karteczki samoprzylepne Post-it, które w niedługim czasie stały się absolutnym niezbędnikiem każdego biura. Warto zaznaczyć, że twórca tego wynalazku wciąż żyje. Nie cieszy się jednak poważaniem wśród naukowców, ponieważ przylepiane karteczki skutecznie przyćmiły jego wszelkie osiągnięcia na polu naukowym. Life is brutal.

Stubbins Ffirth, czyli jak się leczyć wymiocinami

Stubbins Ffirth (1784–1820) był dość kontrowersyjnym amerykańskim naukowcem, którego lata życia przypadły na okres epidemii żółtej febry. Jako prawdziwy człowiek nauki postanowił więc uratować ludzkość i na stałe wpisać się na karty historii. Zadanie to udało mu się zrealizować jedynie częściowo, ponieważ na karty historii bez wątpienia się wpisał, jednak z zupełnie innych powodów. Czytelnikom o delikatnych przewodach pokarmowych zdecydowanie odradzamy czytanie dalszej części tego artykułu.
Początkowym założeniem pana Stubbinsa było niezaliczanie żółtej febry do grupy chorób zakaźnych. Był to pogląd dość kontrowersyjny, ponieważ wszystkie ówczesne autorytety medyczne twierdziły przeciwnie. Stubbins nic sobie nie robił z jazdy pod prąd i postanowił rozpocząć testy. Warto dodać, że na stanowisko królika doświadczalnego wybrał samego siebie.
Pierwszym etapem „badań” było nacięcie własnej skóry w kilku miejscach i (uwaga!) zaaplikowanie do ran wymiocin osób chorujących na żółtą febrę. Pierwsza próba nie przyniosła jednak oczekiwanych rezultatów, dlatego też Stubbins spróbował ponownie, znacznie pogłębiając rany we własnym ciele. Efekt był identyczny, czyli żaden. Nadeszła więc pora na bardziej bezpośrednie próby zarażenia.
W ten właśnie sposób wymiociny zostały zaaplikowane do jego oczu. Rozczarowany efektem, postanowił więc zbudować coś w rodzaju wymiocinowej sauny, w której przesiadywał całymi dniami. Takie rozwiązanie w końcu przyniosło rezulaty, niestety – dalekie od oczekiwanych. Skończyło się bowiem na nudnościach i bólu głowy. Ostatnią próbą było przygotowanie pigułek z wymiocinami, które zażywał przez kilka kolejnych dni. Rozczarowany – zaniechał dalszych testów.
Kilkadziesiąt lat później znaleziono źródło przenoszenia choroby. Było nim ukąszenie komara, który miał wcześniej kontakt z osobą zainfekowaną. No cóż… wszysko w imię nauki!

Powrót do żywych, czyli o współczesnym doktorze Frankensteinie

Nie ulega żadnej wątpliwości, że rozwój technologii, medycyny czy jakiejkolwiek innej gałęzi wiedzy musi bazować na licznych testach i doświadczeniach. Dlatego też na przestrzeni dziejów naukowcy, chcąc dokonać prawdziwego przełomu w swojej dziedzinie badań, decydowali się na przeprowadzanie różnorakich eksperymentów. Niektóre z nich kończyły się ogólnoświatowym sukcesem, inne – kończyły marnie, a dziś stanowią jedynie przedmiot naukowych anegdot.
Świetnym tego przykładem była działalność Roberta E. Corsnisha, żyjącego w latach 1903-1963. Cornish był naukowcem pracującym na uniwersytecie w Californi. Pewnego dnia doszedł do wniosku, że śmierć człowieka jest czymś, czemu można zapobiec, lub to naprawić. W związku z tym poświęcił on kilka lat swojego życia na eksperymenty, które w dzisiejszych czasach wywołałyby jedynie skandal.
Główne założenie badawcze Cornisha opierało się na tym, że jeżeli śmierć nastąpiła w ciągu ostatnich 10 minut (logicznie byłoby zapytać dlaczego akurat 10, a nie np. 11?), to z całą pewnością takiego człowieka można jeszcze przywrócić do życia, ponieważ narządy nie uległy jeszcze rozkładowi. Cornish rozpoczął więc pierwsze eksperymenty na zwierzętach.
W tym celu dusił kolejno psy i pozostawiał je martwe na wspomniane 10 minut. Następnie rozpoczynał tzw. „czynności właściwe”, które polegały głównie na aplikowaniu ogromnych ilości adrenaliny i leków przeciwzakrzepowych. Co ciekawe, metoda ta miała dokładnie 50% skuteczność, ponieważ z czterech prób, dwie zakończyły się częściowych sukcesem. Mówiąc „częściowym” mamy na myśli fakt, że zwierzęta miały uszkodzony mózg i były ślepe.
Dalszy rozwój badań Cornisha powstrzymały jednak władze uczelni, które dowiedziały się o eksperymencie i wysłały go na przymusowy urlop. Jak wypadłyby testy na ludziach – tego już nigdy się nie dowiemy.

O początkach życia na ziemi, czyli jak to było naprawdę

Jak powstał człowiek? Dlaczego żyjemy? Dokąd zmierza ten świat? Dlaczego Bóg milczy? – to są pytania, na które nigdy nie uzyskamy odpowiedzi, a jednak miliony ludzi na całym świecie marnują swoje życia na ich uzyskanie. Mało tego – często biorą za to pieniądze. Teoria powstania życia budzi chyba najwięcej kontrowersji, ponieważ na jej temat napisano już chyba wszystko. Pomijając boski aspekt powstania świata, skupimy się na chyba najbardziej akceptowalnej teorii.
Jest początek ery archaicznej, anno domini 4 miliardy lat temu. Ziemia była wówczas bardzo młodą planetą. Jej klimat uległ znacznemu ochłodzeniu, dzięki któremu woda zaczęła tu występować w postaci ciekłej. Rozpoczęły się więc wielkie ruchy wód oceanicznych, które wchodziły w bezpośredni kontakt ze skałami i gruntami zawierającymi liczne związki organiczne, przez co sama woda w niedługim czasie zamieniła się w roztwór przeróżnych substancji chemicznych. W tych właśnie warunkach powstały pierwsze żywe mikroorganizmy.
Ich zasadniczą właściwością była i jest samożywność, czyli zdolność do przetwarzania prostych związków nieorganicznych w materię organiczną. Dokonując znacznego uproszczenia – początki życia na ziemi ograniczały się więc do olbrzymiej ilości reakcji chemicznych, w trakcie którym wszelkie substancje organiczne zaczęły przybierać bardziej skomplikowane i zaawansowane ewolucyjnie formy życia. Jeżeli chcielibyśmy jakoś scharakteryzować początkowy etap życia na ziemi, można by posłużyć się określeniem „zyjącego oceanu”, które można spotkać w wielu pismach popularnonaukowych.
To jest oczywiście tylko jedna z teorii, którą można obalić w zasadzie w każdym momencie. Pomimo tego, że żyjemy w XXI wieku, nie wiemy tak naprawdę jak wyglądały początki naszej planety. Biorąc pod uwagę ilość konfliktów w wyższych sferach nauki, może być tak, że nie dowiemy się tego nigdy. Może więc najlepiej będzie po prostu zostawić tę kwestię w spokoju?

Przykłady pozytywnych skutków palenia marihuany

Według powszechnie panującej opnii „marihuana to zło”. Już dawno temu wrzucona została do tego samego worka co kokaina i extasy, a na worku tym widniał wówczas napis „narkotyki”. Odmiennego zdania są natomiast: Holandia, Czechy i niektóre stany w USA, gdzie marihuanę można kupić legalnie, a jedynym wymogiem jest pełnoletność. Długoletnie prace laboratoryjne pozwoliły jednak naukowcom na wskazanie przynajmniej kilku leczniczych właściwości marihuany. Poniżej zaprezentujemy więc niektóre z nich.
Po pierwsze, substancja THC w niektórych przypadkach może przyczyniać się do zwalczania chorób nowotworowych. Dzieje się tak dlatego, że THC modyfikuje geny odpowiedzialne za powstawanie nowotworu, dzieki czemu przybierają one bardziej łagodną postać i stają się zdecydowanie łatwiejsze do wyleczenia. Na świecie do tej pory odnotowano już kilkaset takich przypadków. Nie bez przyczyny istnieje tzw. „medyczna marihuana”, którą w niektórych krajach podaje się pacjentom.
Marihuana znacznie poprawia ludzką kreatywność. Najlepszym tego przykładem są wszelkiego typu artyści, którzy zgodnie twierdzą, że bez marihuany nie osiągnęliby tego, co teraz mają. Do historii przeszło sławetne stwierdzenie Billa Hicksa: „Jeżeli jesteś przeciwko marihuanie to wyrzuć wszystkie płyty, które masz na półce. Całą tę genialną muzykę zrobili ludzie, którzy byli na wielkim haju.”
Wbrew obiegowej opinii, palenie marihuany wcale nie wywołuje raka płuc. Naukowcy są w tej kwestii całkowicie zgodni. Marihuana ma znikomy wpływ na kondycję naszych płuc, w przeciwieństwie do tytoniu, który co roku zabija miliony ludzi na całym świecie. Marihuana nie tylko nie może wywołać raka płuc, ale też może wspomagać jego zwalczanie, o czym już wspomnieliśmy przed chwilą.
Dodatkową właściwością jest możliwość użycia marihuany jako środka służącego regulacji masy ciała, zwłaszcza jeżeli problem dotyczy niedowagi. Nie będziemy szerzej rozpisywać się na ten temat, wtajemniczeni z pewnością wiedzą, o co chodzi.

Antybiotyki idą do lamusa

Wszystko na tym świecie się rozwija i zmienia. Problem ten dotyczy zarówno rzeczy dużych, jak i tych najmniejszych. Mowa o bakteriach, które przez setki lat ewoluowały do bardziej wrednych odmian, przez co leczenie niektórych chorób do dziś pozostaje utrapieniem lekarzy, którzy zgodnie twierdzą, że jeszcze kilkadziesiąt lat temu te same choroby, wywołane przez te same czynniki, leczyło sie zdecydowanie łatwiej. Kiedyś wystarczył odpowiednio dobrany antybiotyk, dzisiaj potrzebujemy już szczepionki nowej generacji.
Naprzeciw tym potrzebom wyszła grupa amerykańskich naukowców. Ich głównym celem było opracowanie takiej metody leczenia, z którą bakterie nie będą miały absolutnie żadnych szans. Po licznych testach wybór padł na szczepionkę. Mechanizm jej działania wykorzystuje fakt, że ludzki układ odpornościowy jest niejednolity. Zawiera bowiem mnóstwo przeciwciał komórek, które biorą udział w odpowiedzi immunologicznej oraz zwalczaniu konkretnych patogenów.
Najnowsza szczepionka będzie odpowiedzialna za produkcję przeciwciał nowego typu. Będą one w stanie zwalczać patogeny dużo szybciej i celniej, dzięki czemu odporność układu immunologicznego danego pacjenta poprawi się w bardzo krótkim czasie, a wszelkie dolegliwości miną w mgnieniu oka. Głównym zadaniem nowych szczepionek jest więc wywołanie gwałtownej reakcji całego organizmu, który wspomagany szczepionką, będzie w stanie zwalczyć daną chorobę.
Należy jednak pamiętać, że od początkowych testów do masowej produkcji prowadzi długa i kręta droga. Decyzja o dopuszczeniu danej metody do powszechnego medycznego użytku wymaga bowiem całych serii badań kontrolnych, które bardzo często trwają całymi latami. Niemniej jednak, bądźmy świadomi, że nadchodzi abolutnie nowa era w dziedzinie leczenia chorób zakaźnych. Pozostaje więc jedynie cierpliwie czekać na dalszy rozwój badań.

Zmysły maszyny czyli o robotach, które widzą i czują

W dzisiejszych czasach niemal żadna poważna firma produkcyjna nie może obejść się bez zastosowania robotów. Ich użycie nie tylko znacznie skraca czas produkcji, ale również bezpośrednio wpływa na jej jakość. Do tego oczywiście dochodzą takie zalety, jak brak zmęczenia, brak narzekania na zarobki i konieczność odprowadzania ZUS’u. W tym miejscu postanowiliśmy przybliżyć Wam tajniki działania najnowszych robotów, które od niedawna weszły do powszechnego użycia w bardzo wielu branżach.
Na początek informacja, która może zabrzmieć nieco dziwnie – otóż współczesne roboty widzą. Zastanawialiście się kiedykolwiek, skąd robot wie, gdzie znajduje sie przedmiot, który musi podnieść lub skąd wie, której części musi użyć do wykonania danej czynności? Odpowiedzią jest technologia iRVision, która co ciekawe, nie wymaga użycia drogiego sprzętu. Jedyne czego potrzebujemy, to kamera z obiektywem, która wykorzystuje czujnik laserowy. Dzięki temu czujnikowi, robot jest w stanie w ułamku sekund określić swoje położenie względem danego przedmiotu oraz np. samodzielnie zidentyfikować część, która jest mu w tej chwili potrzebna.
Kolejną technologią powszechnie stosowaną zaraz obok iRVision jest tzw. Force Sensor. Technologia ta została opracowana przez firmę FANUC. W odróżnieniu od „widzenia”, system Force Sensor opiera się przede wszystkim na czułości na dotyk. Robot w pewien sposób więc „czuje” co robi. Potrafi więc dostosować siłę nacisku lub udźwigu do przedmiotu, który ma w danym momencie przenieść.
Niewątpliwym atutem tego systemu jest łatwość programowania robota. Twórcy opracowali bowiem specjalny interfejs, dzięki któremu może go obsługiwać niemal każdy. Nie trzeba chyba nikomu mówić, jak bardzo wpływa to na optymalizację całego procesu produkcji. Nie pozostaje więc nic innego, jak usiąść w wygodnym fotelu i zająć się liczeniem zysków. Całą pracę wykonają za nas roboty.

Niewidzialny dron made in Poland

Na początku tego roku zaprezentowano prototyp urządzenia, które może stanowić prawdziwy przełom w rozwoju światowej robotyki. Dodajmy fakt najistotniejszy – autorami projektu są tylko i wyłącznie Polacy. Naukowcy z AGH i Politechniki Rzeszowskiej opracowali projekt niewidzialnego i ultracichego drona, którego nie sposób wykryć przy użyciu tradycyjnych detektorów. Prototyp natychmiast zyskał ogromne zainteresowanie, zwłaszcza ze strony służb mundurowych – wojska i policji.
Zasadniczą nowością, która zdecydowanie odróżnia ten prototyp od wszystkich innych łatwo dostępnych dronów jest fakt, że prototyp ten napędzany jest wodorem. Jego zapotrzebowanie na energię wynosi bowiem jedynie 300W. W ten sposób zastąpiono tradycyjny silnik spalinowy, który jest standardowo montowany w dronach masowej produkcji. Dodatkowym atutem takiego rozwiązania jest również to, że dron przemieszcza się bezszelestnie, co może decydować o jego np. szpiegowskim przeznaczeniu.
Ponadto, tradycyjne silniki spalinowe nagrzewają się w trakcie pracy, a co tym idzie – emitują ciepło, przez co łatwo zlokalizować je za pomocą chociażby detektorów podczerwieni. Niewątpliwą zaletą jest również brak emisji jakichkolwiek spalin, przez co dron jest całkowicie przyjazny dla środowiska. Ekolodzy w tym wypadku niestety nie będą mieć okazji do wszczęcia kolejnej brawurowej akcji protestacyjnej, która tak naprawdę nikogo nie obchodzi.
Jak twierdzą sami twórcy, dron w najbliższym czasie nie trafi jednak do masowej produkcji. Prototyp wymaga jeszcze eliminacji pewnych błedów i poprawy osiągów. Narazie wiadomo jedynie tyle, że dron na litrowej butli wodoru (pełny zbiornik) jest w stanie utrzymać się w powietrzu przez około 30 minut. Plany zakładają podwojenie tego czasu oraz ulepszenie sytemu zdalnego sterowania tak, aby dron mógł oddalać się na większe odległości.

Roboty i moralne aspekty ich decyzji

Zastanawialiście się kiedyś, w jaki sposób myślą roboty? Oczywiście, pierwszą nasuwająca się odpowiedzią jest: nie myślą. Jednak w jakiś sposób również one są zmuszane do wykonywania pewnych czynności oraz podejmowania właściwych decyzji, często w bardzo krótkim czasie. Jasne – to wszystko jest wynikiem programowania. Często jednak dochodzi do sytuacji, w których programiści zwyczajnie nie mają pojęcia dlaczego robot zachował się tak, a nie inaczej.
Zasadniczym elementem tej układanki jest fakt, że roboty myślą zdecydowanie inaczej niż ludzie. Systemy wciąż dopracowywanej sztucznej inteligencji są bowiem tak zaawansowane, że twórcy nie są w stanie przewidzieć zachowania maszyny. Nawet jeżeli robot jest zaprogramowany tak, żeby np. nie krzywdzić istot żywych, to co się stanie w momencie gdy napotka na swej drodze innego robota? Czy będzie on w stanie odróżnić maszynę od człowieka?
Właśnie temu aspektowi postanowili się przyjrzeć inżynierowie i naukowcy z amerykańskiego MIT (Massachusetts Insitute of Technology). W tym celu stworzyli więc tak zwanego debuggera, maszynę odpowiedzialną za kontrolę i eliminowanie ewentualnych błędów kodu innych robotów. Debugger monitoruje więc ich wszystkie procesy decyzyjne oraz potrafi określić, dlaczego robot podjął akurat taką decyzję. W wypadku podjęcia złej, lub braku jakiejkolwiek, kod robota zostaje natychmiast modyfikowany w taki sposób, aby zachowywał się on tak, jak chcą tego twórcy.
Rezultatem takich działań jest naturalnie optymalizacja funkcjonalności robotów. Naukowcy zwracają jednak uwagę na płynące z tego zagrożenie – samodoskonalenie robotów powoduje brak ingerencji człowieka w ich rozwój. Innymi słowy – roboty naprawiają same siebie, a człowiek pomału przestaje być już w tym procesie potrzebny. Science fiction dzieje się dziś.