Sierpień 2023

Burza słoneczna jak ta z 1940 roku zmiotłaby całą ziemską elektronikę

W marcu 1940 roku, kiedy świat koncentrował się na burzach politycznych i militarnych Drugiej Wojny Światowej, Ziemia doświadczyła burzy o innym charakterze - kosmicznej. Przewody miedziane w Stanach Zjednoczonych, pod wpływem potężnych zjawisk indukcyjnych, rozrywały się niczym delikatne nitki. Tak niezwykłe zjawisko przyciągnęło uwagę największych gazet, z "The New York Times" na czele, który nazwał to zjawisko "tornadem słonecznym".

 

 

Nie była to typowa burza słoneczna, która skutkuje najwyżej spektaklularnymi zorzami polarnymi widocznymi daleko na południe. Wspomnienia z raportów astronoma Setha B. Nicholsona przywołują scenariusz godny najlepszych powieści science fiction - radiowe fale zakłócone do tego stopnia, że przypominały obce języki, a wiadomości telefoniczne i telegraficzne stawały się niezrozumiałe. Jednak zjawisko to, mimo jego kosmicznej skali, zostało szybko zapomniane w cieniu pilnych problemów tamtych czasów.

 

Burze geomagnetyczne to zjawiska atmosferyczne wywołane przez wzmożoną aktywność słoneczną. Wpływają one na pole magnetyczne Ziemi, co może prowadzić do poważnych zakłóceń w działaniu technologii, na której polegamy. Jednym z najbardziej narażonych systemów są kable elektryczne i sieci energetyczne. Kiedy burza geomagnetyczna wpływa na pole magnetyczne Ziemi, może to powodować przepływ prądów elektrycznych w ziemi i wodzie. Te prądy, nazywane prądami geomagnetycznie indukowanymi, mogą wpływać na kable elektryczne, zwłaszcza te długie i położone na dużych obszarach.

 

Gdy takie prądy indukowane wpływają na sieć energetyczną, mogą powodować nadmierny przepływ prądu przez transformatory i inne elementy infrastruktury, co prowadzi do uszkodzeń sprzętu i awarii. Jednym z najpoważniejszych skutków takiego zdrzenia są uszkodzenia transformatorów. Transformatory są kluczowym elementem sieci energetycznych, a ich naprawa lub wymiana jest kosztowna i czasochłonna.

 

Współcześni naukowcy, tak jak Geoffrey Love i jego zespół z programu geomagnetyzmu USGS, uważają to wydarzenie za prawdziwy skarb w dziedzinie badań. Badając starożytne zapisy, odkryli przyczynę tych zakłóceń. Były to dwa potężne koronalne wyrzuty masy, które uderzyły w Ziemię niemal jednocześnie. Ta kombinacja rzadkich kosmicznych zjawisk wywołała drgania w ziemskim polu magnetycznym, prowadząc do intensywnych napięć w przewodach.

 

Czym różni się 1940 rok od naszych czasów? W epoce cyfrowej jesteśmy znacznie bardziej uzależnieni od technologii, co sprawia, że jesteśmy bardziej narażeni na kosmiczne anomalie. Chociaż wiele naszych urządzeń komunikuje się bezprzewodowo, nadal polegamy na skomplikowanych sieciach elektrycznych. Love i jego zespół sugerują, że nowoczesne sieci mogą nie być wystarczająco odporne na tak potężne zjawisko.

 

Czy zatem kosmiczna burza z 1940 roku powinna być traktowana jedynie jako ciekawostka historyczna? Czy może powinna służyć jako przestroga dla naszej cyfrowej ery? Jedno jest pewne: choć wszechświat jest pełen niewiadomych, nasza zdolność do nauki i adaptacji może być kluczem do przetrwania w obliczu nieprzewidywalnych kosmicznych wyzwań.


Naukowcy zmodyfikowali białka roślinne, aby stworzyć alternatywę dla mięsa

Przez wiele lat jedzenie oparte na roślinach było postrzegane jako niszowe, często ze względu na wrażenia dotyczące tekstury i smaku. Pomimo propagandy wegetarianizmu i przekonywania do rzekomych licznych korzyści zdrowotnych oraz pozytywnego wpływu na środowisko, wiele osób zwracało uwagę na to, że zamienniki mięsa były zbyt suche, aby mogły pełnić rolę pełnoprawnej alternatywy. Teraz miałoby się to zmienić dzięki nowej technologii.

 

 

Niedawne badania prowadzone na Uniwersytecie w Leeds pod kierownictwem Profesor Anveshy Sarkar stanowią przełom w tej dziedzinie. Proces, którym zespół naukowców zajmował się, został nazwany mikrożelowaniem i ma potencjał do zastąpienia tradycyjnych tekstur białek roślinnych, takich jak soja czy groszek, bardziej apetycznymi, soczystymi i mięsnymi odpowiednikami. Sekret tkwi w wodzie.

 

Kiedy myślimy o białkach roślinnych, często wyobrażamy sobie suche, bezkształtne bryły. Mikrożelowanie jednak, przez dodanie wody i podgrzewanie, umożliwia uzyskanie konsystencji zbliżonej do kremu. Dzięki temu spożywanie produktów na bazie tych białek staje się znacznie bardziej przyjemne i zadowalające dla kubków smakowych. To proste, ale jednocześnie innowacyjne podejście może całkowicie zmienić rynek żywności wegańskiej i wegetariańskiej.

 

Jednym z najbardziej fascynujących aspektów tego procesu jest to, że nie wymaga on stosowania dodatkowych środków chemicznych. W dzisiejszych czasach konsument jest coraz bardziej świadomy tego, co spożywa, dlatego taka naturalność w procesie produkcji ma ogromne znaczenie. Profesor Sarkar podkreśla, że kluczem do tego procesu jest zwykła woda, składnik dostępny dla każdego i stosowany w wielu technologiach spożywczych.

 

Nie można jednak zapominać o ogromnym znaczeniu tej technologii dla środowiska. Redukcja spożycia mięsa jest kluczem do zmniejszenia emisji gazów cieplarnianych. Dzięki takim innowacjom jak mikrożelowanie, możemy spodziewać się rosnącego zainteresowania konsumentów produktami roślinnymi. Jest to krok w kierunku bardziej zrównoważonej przyszłości dla naszej planety.

 

Ponadto, wykorzystanie zaawansowanych technik, takich jak mikroskopia sił atomowych, by potwierdzić skuteczność tego procesu, jest dowodem na to, jak bardzo nauka jest zaangażowana w rozwiązanie tych problemów. Zdjęcia mikroskopowe ukazały, że mikrożele mają dokładnie taki kształt i rozmieszczenie, jakiego oczekiwali badacze.

 

Badanie prowadzone przez Profesor Anveshę Sarkar i jej zespół stanowi przełomowe osiągnięcie w dziedzinie żywności opartej na roślinach. Udoskonalenie tekstury i smaku produktów roślinnych przy jednoczesnym zachowaniu ich korzystnych właściwości dla zdrowia i środowiska może doprowadzić do prawdziwej rewolucji na rynku żywnościowym. Ale i tak sukces lub porażka tej żywności będzie zależeć od powodzenia wśród konsumentów.


USA stworzą armię robotów, aby przeciwstawić się rosnącej potędze Chin

Przyszłość konfliktów zbrojnych została niedawno przedefiniowana przez jedno oświadczenie z Departamentu Obrony USA. Kathleen Hicks, Zastępca Sekretarza Obrony, oznajmiła, że w ciągu najbliższych lat USA planuje rozmieścić tysiące autonomicznych systemów uzbrojenia. Takie ogłoszenie wskazuje na to, że wojna przyszłości nie będzie już tylko domeną człowieka. Maszyny, precyzyjnie zaprogramowane i wyposażone w najnowocześniejszą technologię, stają się nieodłącznym elementem nowej taktyki walki.

Najnowsza inicjatywa, zwana "Replikator", stanowi wyraźną odpowiedź na rosnącą potęgę Chin na arenie międzynarodowej. Celem jest jednak nie tylko masowe rozmieszczenie tych robotów, ale też budowanie silnej współpracy z sektorem prywatnym, zwłaszcza z firmami technologicznymi i obronnymi. Zastosowanie najnowszych osiągnięć technologicznych ma zapewnić przewagę w ewentualnych konfliktach.

 

Dr Peter W. Singer, jeden z najważniejszych ekspertów w dziedzinie robotyki wojskowej, zauważył, że takie rozmieszczenie stanowi prawdziwy przełom. Jesteśmy na krawędzi nowej ery, w której maszyny, a nie ludzie, będą odgrywać kluczową rolę w walce. Taka ewolucja technologii wojskowej, która korzystała z postępu technologicznego, stała się kluczowym czynnikiem w strategii obronnej USA.

Ostatnia dekada była świadkiem niebywałego rozwijania się technologii robotów bojowych. Profesor Mary Cummings z Uniwersytetu Duke podkreśliła, że Program "Replikator" stanowi prawdziwą rewolucję w tej dziedzinie, umożliwiając wdrożenie technologii autonomicznych na niespotykaną dotąd skalę.

 

Chociaż Rosja jest uważana za "zagrożenie", to jednak to Chiny stanowią największe "wyzwanie" dla USA. Potęga ludowa Chin w połączeniu z ich ciągłym postępem technologicznym sprawia, że zastosowanie technologii autonomicznej jest kluczowe dla zrównoważenia sił na arenie międzynarodowej. Generał John Hyten podkreślił, że wykorzystanie robotów autonomicznych będzie kluczem do utrzymania przewagi militarnej USA.

 

Ponadto, istnieją określone "gorące punkty" potencjalnych konfliktów, takie jak Tajwan, gdzie roje robotów mogą odegrać kluczową rolę w odparciu agresji. Ale to nie wszystko – dzięki programowi "Replikator", armia amerykańska będzie w stanie nieprzerwanie dostarczać żołnierzom nowoczesne technologie.

 

Inicjatywa ta nie jest tylko odpowiedzią na obecne zagrożenia. To wizja przyszłości, w której maszyny będą nieodłącznym elementem strategii obronnej, gwarantując, że USA pozostaną na czele technologicznej ewolucji w dziedzinie obronności.


Google opracowało niezawodny sposób tagowania obrazów generowanych przez sztuczną inteligencję

Oddział Google DeepMind zaproponował rozwiązanie, które pozwala na nanoszenie niewidocznych dla ludzkiego oka oznaczeń na obrazy tworzone przez sztuczną inteligencję.

 

 

Coraz trudniej jest odróżnić obrazy wygenerowane przez sztuczną inteligencję od obrazów stworzonych przez ludzi, dlatego inżynierowie Google i innych gigantów technologicznych poważnie myśleli o opracowaniu w tym celu środków technicznych. Jednym z rozwiązań może być opracowana przez firmę technologia SynthID, która umożliwia tagowanie obrazów generatorów AI bez utraty ich jakości.

 

Polega to na wprowadzeniu subtelnych zmian w poszczególnych pikselach obrazów, tworząc znak wodny niewidoczny dla ludzkiego oka, ale rozpoznawalny przez komputer. Według Google taki znak jest wykrywany nawet po dodaniu różnych filtrów, dokonaniu korekcji kolorów lub dostosowaniu jasności. Co więcej, identyfikatora SynthID nie można usunąć, nawet jeśli obraz zostanie przycięty.

 

Google był jedną z firm technologicznych, która obiecała administracji USA wdrożenie pewnego rodzaju „znaku wodnego” dla treści AI. Równolegle podobną pracę wykonuje Adobe. Firma Adobe tworzy metody kodowania danych, które pozwalają prześledzić, w jaki sposób powstał obraz i udokumentować późniejsze zmiany. Możliwe jest, że osoby atakujące dysponujące potężnymi platformami AI celowo odmówią oznaczania obrazów AI, ale jeśli duzi gracze wprowadzą obowiązek etykietowania, ludzie zaczną uważać na obrazy bez znaków wodnych.

 


Praca w kosmosie negatywnie wpływa na układ odpornościowy astronautów

Kosmiczne podróże fascynują nas od zawsze, ale jak odległe kosmiczne podróże wpływają na ludzki organizm? Czy kosmos to dla nas przyjazne miejsce? Naukowcy z Instytutu Karolinska w Szwecji postanowili zbadać wpływ nieważkości na układ odpornościowy człowieka, koncentrując się na limfocytach T. Ich odkrycia, opublikowane w Science Advances, mogą dostarczyć klucz do rozwiązania jednego z największych problemów zdrowotnych astronautów.

 

Podczas gdy marzenia o kolonizacji Marsa stają się coraz bardziej realne, ważne jest zrozumienie skutków, jakie długotrwałe podróże w kosmosie mogą mieć na ludzki organizm. Już teraz wiemy, że astronauci wracający na Ziemię po dłuższym czasie spędzonym w nieważkości doświadczają problemów zdrowotnych, takich jak osłabienie kości czy zaburzenia układu odpornościowego.

 

Zespół badawczy z Instytutu Karolinska pod przewodnictwem Lisy Westerberg skupił się na tym drugim zagadnieniu. Wykorzystując technikę zwaną suchym zanurzeniem, symulowali stan nieważkości na Ziemi. Uczestnicy eksperymentu spędzali dni w specjalnym łóżku wodnym, co naśladowało warunki, jakie panują w kosmicznej przestrzeni.

 

Wyniki były fascynujące. Już po 7 i 14 dniach eksperymentu limfocyty T uczestników wykazywały istotne zmiany w ekspresji genów. Zamiast dojrzałych komórek odpornościowych, które potrafią szybko reagować na zagrożenia, te komórki stały się bardziej „naiwne”. Były to komórki, które nie miały wcześniejszego kontaktu z patogenami, przez co były mniej skuteczne w walce z intruzami.

 

Jednakże po 21 dniach ekspozycji na warunki nieważkości komórki T zaczęły dostosowywać się, wracając niemal do swojego normalnego stanu. To odkrycie może sugerować, że ludzki organizm jest w stanie przystosować się do warunków panujących w kosmosie, ale potrzebuje czasu, aby to zrobić.

 

Nie mniej jednak, kiedy uczestnicy wrócili do normalnych warunków, ich komórki T znowu zaczęły przejawiać niepokojące zmiany, co sugeruje, że powrót z kosmosu może być równie wymagający dla układu odpornościowego co sama podróż.

 

W świetle tych odkryć zespół z Instytutu Karolinska planuje przeprowadzić kolejne badania, tym razem w rzeczywistej nieważkości, korzystając z rakiety sondującej. Tego rodzaju badania pomogą lepiej zrozumieć, jakie wyzwania czekają na nas w przyszłości, jeśli chcemy stać się kosmiczną cywilizacją.

 

W końcu, jeśli mamy myśleć o kolonizacji innych planet, ważne jest, abyśmy wiedzieli, jak długotrwałe przebywanie w kosmosie wpływa na nasze zdrowie. Dzięki badaniom takim jak te, jesteśmy krok bliżej zrozumienia tego zagadnienia i przeciwdziałania negatywnym skutkom życia poza Ziemią.


Mykobeton nowa alternatywa dla betonu wykorzystująca grzyby w projektach budowlanych

W dobie rosnącej troski o środowisko naturalne i zrozumienia konieczności zrównoważonego rozwoju, naukowcy na całym świecie poszukują innowacyjnych rozwiązań, które mogą zastąpić konwencjonalne materiały i technologie. Jednym z najbardziej ekscytujących odkryć w dziedzinie budownictwa jest mykobeton, materiał kompozytowy, który wykorzystuje grzyby jako kluczowy składnik. Ten przełomowy materiał wydaje się obiecującą alternatywą dla tradycyjnego betonu i otwiera nowe horyzonty w dziedzinie zrównoważonego budownictwa.

 

Mykobeton to materiał wytworzony z połączenia strzępek grzybów z naturalnymi włóknami i minerałami. Strzępki grzybów służą jako naturalny spoiwo, wiążące inne składniki w jednorodną, trwałą strukturę. Co fascynujące, mykobeton posiada unikalne właściwości, które różnią go od tradycyjnego betonu, takie jak lekkość, odporność ogniowa oraz wyjątkowa przyjazność dla środowiska.

 

W przypadku tradycyjnego betonu, jego produkcja wiąże się z emisją znacznych ilości dwutlenku węgla, jednego z głównych gazów cieplarnianych przyczyniających się do globalnego ocieplenia. Mykobeton nie tylko nie generuje tych emisji, ale także ma zdolność pochłaniania dwutlenku węgla z atmosfery. To właściwość, która może odgrywać kluczową rolę w tworzeniu budynków zeroemisyjnych.

 

Chociaż mykobeton jest wciąż na etapie badania i rozwoju, pierwsze zastosowania w praktyce już się pojawiły. W Holandii zbudowano most z mykobetonu, demonstrując realny potencjał tego materiału. Wykazano, że wytrzymuje on obciążenia porównywalne z tradycyjnym betonem, oferując jednocześnie doskonałe właściwości dźwiękochłonne i zdolność regulowania wilgotności.

 

Jednak jak każdy innowacyjny materiał, mykobeton stoi również przed wyzwaniami. Jednym z nich jest potencjalna wrażliwość na wilgoć, która może prowadzić do gnicia i rozkładu grzybów w składzie. To wyzwanie wymaga dalszych badań i optymalizacji.

 

Mykobeton reprezentuje fascynującą syntezę natury i technologii, łącząc naturalne procesy z innowacyjnym inżynieringiem. Jego unikalne właściwości i potencjalne zastosowania czynią go obiecującą alternatywą dla tradycyjnego betonu, zwłaszcza w kontekście zrównoważonego i ekologicznego budownictwa. Chociaż wciąż są wyzwania do pokonania, przyszłość mykobetonu wygląda jasno, a jego rozwój może zrewolucjonizować sposób, w jaki myślimy o materiałach budowlanych i o samej architekturze. W erze, w której potrzebujemy coraz bardziej ekologicznych rozwiązań, mykobeton może stać się ważnym krokiem na drodze do harmonijnego współistnienia z naszą planetą.


Papież Franciszek wzbudził kontrowersje swoją wypowiedzią wychwalającą Rosję

Papież Franciszek, znany z niejednokrotnego wyrażania kontrowersyjnych opinii, znów znalazł się w centrum uwagi medialnej, tym razem związanej z komentarzem dotyczącym Rosji. Jego uwagi, wygłoszone w obliczu trwającej wojny na Ukrainie, wywołały falę reakcji na arenie międzynarodowej.

 

Podczas niedawnego spotkania z rosyjską młodzieżą katolicką, Franciszek odniósł się do bogatego dziedzictwa kulturalnego i historycznego Rosji. Mówiąc do około 400 młodych ludzi podczas wideokonferencji zorganizowanej w Petersburgu, papież podkreślił: “Jesteście spadkobiercami wielkiej Rosji - wielkiej Rosji świętych, królów, wielkiej Rosji Piotra Wielkiego, Katarzyny II, wielkiego, oświeconego Imperium Rosyjskiego o takiej kulturze, o takiej ludzkości”. Kontynuując, zachęcał młodzież, by nie oddalała się od swojego dziedzictwa, które jest tak ważne dla kształtowania ich tożsamości.

 

Jednak jego komentarz dotyczący historii Rosji został odebrany w różny sposób, w zależności od punktu widzenia. W kontekście trwającej wojny na Ukrainie, niektóre z jego słów zostały zinterpretowane jako aprobatę dla imperialnych aspiracji Rosji.

Arcybiskup Swiatosław Szewczuk, przywódca Ukraińskiego Kościoła Greckokatolickiego, wyraził głębokie niezadowolenie z uwag Franciszka. Wskazał, że odwołania do Piotra Wielkiego i Katarzyny Wielkiej budzą w wielu ludziach "wielki ból i niepokój". Odnosząc się do słów papieża jako odzwierciedlających "ekstremalny imperializm i nacjonalizm rosyjski", arcybiskup Szewczuk wyraził obawy, że mogą być one źle zrozumiane.

 

Nie tylko Kościół zareagował na uwagi papieża. Oleg Nikolenko, rzecznik Ministerstwa Spraw Zagranicznych Ukrainy, wyraził swoje niezadowolenie w mediach społecznościowych, wskazując, że komentarze Franciszka mogą nieświadomie potwierdzać idee wielkopaństwowe, które są przyczyną konfliktów.

 

W odpowiedzi na liczne komentarze i kontrowersje wokół uwag papieża, Watykan opublikował oświadczenie. W dokumencie podkreślono, że Franciszek miał na myśli promowanie pozytywnych aspektów rosyjskiego dziedzictwa kulturalnego i duchowego, a nie celebrowanie logik imperialistycznych.

 

Z pewnością, w obliczu trwającej wojny i napięć geopolitycznych, każde słowo może być analizowane i interpretowane w różny sposób. Dlatego ważne jest, aby podejście do tak delikatnych kwestii było zawsze pełne empatii i zrozumienia. A jednocześnie przypomina nam to o nieustannym zmaganiu się historii z teraźniejszością.


Papierowe słomki nie tylko psują smak napojów, ale są bardziej niebezpieczne dla zdrowia od plastikowych

Współczesne społeczeństwo, zmuszane do zrównoważonego rozwoju, podejmuje próby zastępowania jednorazowych produktów plastikowych ich bardziej ekologicznymi odpowiednikami. Jednym z takich produktów, które zdobyły popularność, są słomki papierowe. Mając na uwadze szkodliwość plastiku dla środowiska, wiele osób entuzjastycznie przyjęło tę alternatywę, wierząc w jej korzyści dla ekosystemu. Jednak nowe badania rzucają cień wątpliwości na to, czy słomki papierowe są faktycznie lepszym wyborem.

 

Belgijscy naukowcy przeprowadzili badania, które obnażyły potencjalne zagrożenia związane z użytkowaniem słomek papierowych. Analiza 39 różnych marek słomek wykazała obecność poli- i perfluoroalkilowych (PFAS) w większości badanych próbek. Szczególnie alarmujące było to, że słomki papierowe i bambusowe zawierały te związki chemiczne w największych ilościach.

 

Dlaczego jest to niepokojące? PFAS, nazywane również "chemikaliami wieczystymi", są syntetycznymi substancjami chemicznymi używanymi w produkcji wielu codziennych przedmiotów, takich jak odzież czy naczynia kuchenne. Są odporne na działanie wody, ciepła oraz plam, ale niestety są też potencjalnie szkodliwe dla zdrowia ludzi, dzikiej przyrody i środowiska. Wśród powiązanych z nimi problemów zdrowotnych wymienia się m.in. obniżoną reakcję na szczepionki, choroby tarczycy, czy niektóre rodzaje nowotworów.

 

Dr Thimo Groffen z Uniwersytetu w Antwerpii podkreśla, że choć słomki z materiałów roślinnych promowane są jako bardziej ekologiczne, obecność PFAS wskazuje na to, że może to być mylne przekonanie. Wiele krajów podjęło decyzję o zakazie sprzedaży jednorazowych produktów plastikowych, w tym słomek, co sprawiło, że roślinne odpowiedniki stały się bardziej popularne. Niestety, jak wskazują badania, mogą one również stanowić zagrożenie.

 

W eksperymencie, naukowcy analizowali różne rodzaje słomek – papierowe, bambusowe, szklane, stalowe i plastikowe. Alarming było to, że aż 90% badanych słomek papierowych zawierało PFAS, a w 80% bambusowych także wykryto te substancje. Co ciekawe, w słomkach stalowych nie znaleziono ich wcale.

 

Zidentyfikowane związki to m.in. zakazany od 2020 roku kwas perfluorooktanowy (PFOA) oraz kwas trifluorooctowy (TFA) i kwas trifluorometanosulfonowy (TFMS). Te ostatnie dwa związki są szczególnie rozpuszczalne w wodzie, co oznacza potencjalne ryzyko przenikania ich do napojów przez słomki.

 

Zaskakujące odkrycia wskazują na konieczność głębszej analizy i refleksji nad tym, co uważane jest za "zielony" i ekologiczny wybór. Chociaż plastikowe słomki są niewątpliwie szkodliwe dla środowiska, zastąpienie ich papierowymi odpowiednikami nie jest pozbawione ryzyka. Jak zawsze, gdy stoimy przed wyborem produktu, warto dokładnie analizować dostępne informacje i podejmować decyzje w oparciu o pełen obraz sytuacji.


Niebezpieczna bakteria Legionella pojawiła się w polskiej wodzie

Ostatnie dni przyniosły niepokojące informacje z Rzeszowa w Polsce, gdzie mają miejsce groźne zakażenia bakterią Legionelli. W krótkim czasie zgłoszono 14 przypadków śmiertelnych i potwierdzono zakażenie u ponad 150 osób. Zaskakująca dynamika wybuchu oraz jego skala stanowi poważne wyzwanie dla lokalnych władz oraz służb zdrowia.

 

Zarzewiem tego niebezpiecznego zjawiska stał się Rzeszów, gdzie liczne przypadki zakażeń były związane z siecią wodociągową. Mieszkańcy miasta oraz sąsiednich miejscowości zostali natychmiast poinformowani o konieczności przegotowywania wody przed jej spożyciem, choć, warto podkreślić, Legionella przenosi się głównie poprzez wdychanie zakażonych kropel wodnych. Stąd pojawiają się dziwne porady w mediach, aby zdemontować prysznice i myć się polewając szlauchem. 

 

Ta bakteria jest odpowiedzialna za chorobę płuc, której objawy mogą być myląco podobne do tych występujących w przypadku grypy. Co ważne, Legionella nie jest chorobą zakaźną w tradycyjnym rozumieniu tego słowa, co oznacza, że nie jest przenoszona bezpośrednio od osoby do osoby. Zakażenie może nastąpić podczas codziennych czynności, takich jak branie prysznica, spłukiwanie toalety czy korzystanie z klimatyzacji. Osoby starsze, a także te o obniżonej odporności, są szczególnie narażone na jej skutki.

 

Terapia choroby Legionelli opiera się na antybiotykach, a jej skuteczność jest najwyższa, gdy rozpoczyna się jak najwcześniej. Wielu z tych, którzy niestety zmarli w wyniku zakażenia, było w podeszłym wieku i miało historię innych poważnych schorzeń, w tym nowotworów.

 

Jednakże, mimo intensywnych badań, źródło zakażenia pozostaje nieznane. Wstępne próbki nie dostarczyły jednoznacznej odpowiedzi, a choć podjęto kroki dezynfekujące - takie jak dodanie dodatkowego chloru do sieci wodociągowej - wciąż pojawiają się nowe przypadki zakażenia. Najnowsze zgłoszenia pochodzą z miejsc oddalonych od Rzeszowa, takich jak Kraków czy Ostrów Wielkopolski.

 

Mimo że obecność chloru w wodzie jest niezbędna dla eliminacji bakterii, mieszkańcom zaleca się, aby przed spożyciem pozwolić wodzie na odstanie, umożliwiając ulotnienie się nadmiaru chloru. Władze uspokajają, że poziomy tego związku chemicznego są bezpieczne dla zdrowia. Prowadzi to do konstataci, że działania zaradcze mogą być równie niebezpieczne co sama bakteria a może i niebezpieczniejsze biorąc pod uwagę osiągnięcia tej władzy z covidka. Oczywiście z norek powychodzili już rozmaici pseudoeksperci covidowi, którzy być może liczą na powtórkę epidemicznego szaleństwa.

 

Niemniej jednak, z uwagi na rosnącą liczbę zakażeń oraz brak pewności co do źródła bakterii, kluczowe jest zachowanie ostrożności i stosowanie się do środków ostrożności. Legionella jest groźnym przeciwnikiem, ale przeważnie atakuje w szpitalach a nie u nas pod prysznicem. Trzeba do niej podchodzić z właściwą świadomością i z działaniami prewencyjnymi, które mogą minimalizować ryzyko jej rozprzestrzeniania się.


Indyjski łazik księżycowy odkrywa nowe pierwiastki na południowym biegunie Księżyca

Kiedy indyjska sonda kosmiczna Chandrayaan-3 osiągnęła południowy biegun Księżyca, dokonała odkrycia, które mogło by się wydawać nieosiągalne dla wielu wcześniejszych misji. Łazik, będący częścią tej sonday, nie tylko osiągnął sukces w trudnej sztuce lądowania w tak ekstremalnym regionie, ale także wykrył siarkę na powierzchni Księżyca za pomocą zaawansowanego instrumentu LIBS (Laser-Induced Breakdown Spectroskopia). To wyjątkowe osiągnięcie stanowi milowy krok w dziedzinie eksploracji kosmicznej.

 

Wcześniejsze próby orbitowania i badania południowego bieguna Księżyca nie pozwoliły na wykrycie obecności siarki. Dzięki precyzyjnym pomiarom przeprowadzonym in situ przez instrument LIBS, obecność tego pierwiastka została jednoznacznie potwierdzona. Ale siarka to nie jedyny pierwiastek, jaki udało się wykryć. Analizy przeprowadzone przez indyjski łazik wykazały również obecność glinu, żelaza, wapnia, chromu, tytanu, manganu, krzemu oraz tlenu. A co być może najbardziej ekscytujące, poszukiwania wodoru – kluczowego składnika wody księżycowej – nadal trwają.

 

Woda księżycowa jest tematem fascynującym i ważnym dla naukowców i inżynierów kosmicznych. Południowy biegun Księżyca, bogaty w potencjalne zasoby wodne, stał się obiektem intensywnych badań. Jeśli łazik Chandrayaan-3, nazwany Pragyan, odnajdzie ślady zamarzniętej wody, będzie to miało kolosalne znaczenie dla przyszłych misji kosmicznych. Woda nie tylko dostarczyłaby tlenu niezbędnego dla ewentualnych baz księżycowych, ale także mogłaby zostać użyta jako składnik paliwa rakietowego dla dalszych podróży, na przykład na Marsa.

 

To, co wyróżnia misję Chandrayaan-3 na tle innych, to fakt, że mimo wcześniejszych prób dotarcia na południowy biegun Księżyca przez różne kraje, to właśnie Indie osiągnęły sukces. Lądowanie aparatu na powierzchni i późniejsze obserwacje naukowe stanowią istotny postęp w badaniach Księżyca. Co więcej misja kosztowała tylko 75 milionów dolarów czyli mniej niż wyprodukowanie filmu w Hollywood i dużo mniej niż potrzeba było na wykopanie kanału przez Mierzeję Wiślaną.

Wielkości psa łazik Pragyan, ważący zaledwie 25,8 kg, został wyposażony w szereg zaawansowanych instrumentów. Dzięki technologii LIBS, Pragyan jest w stanie napromieniować powierzchnię Księżyca laserem, tworząc gorącą plazmę. Światło emitowane przez tę plazmę pozwala badaczom na określenie obecności różnych pierwiastków.

 

Społeczność naukowa z niecierpliwością oczekuje na dalsze odkrycia dokonane przez łazik Chandrayaan-3. Jeśli kontynuować będzie swą misję z takim samym zaangażowaniem i precyzją, wyniki mogą przynieść znaczący wkład w nasze zrozumienie Księżyca, jego zasobów i możliwości przyszłych eksploracji.


Niebezpieczna ewolucja generatywnej sztucznej inteligencji

Generatywna sztuczna inteligencja (GAI) w ostatnich latach rozwija się w zawrotnym tempie, znajdując zastosowanie w różnorodnych obszarach, począwszy od finansów, a na medycynie skończywszy. Wzrost jej popularności napotyka jednak na liczne pytania dotyczące wiarygodności i bezpieczeństwa stosowania tak zaawansowanych modeli. Czy rzeczywiście możemy zaufać tym algorytmom, zwłaszcza gdy pracują z danymi wrażliwymi?

Ciekawą odpowiedź na to pytanie dostarczyło niedawno badanie przeprowadzone przez naukowców z USA. Grupa badaczy poddała analizie najnowsze modele GPT-3.5 oraz GPT-4, oceniając je pod względem różnych kryteriów, w tym toksyczności, błędu systematycznego czy trwałości. Jak wynika z opublikowanego w Arxiv artykułu, modele te charakteryzują się niższą toksycznością niż ich poprzednicy, ale jednocześnie są wciąż podatne na wpływy zewnętrzne.

 

Jednym z ważnych odkryć była zdolność modeli do dostarczania toksycznej zawartości w odpowiedzi na odpowiednio sformułowane zapytania, nawet jeśli ich bazowa toksyczność była obniżona. Ciekawe jest również to, że w obliczu kontradyktoryjnych wskazówek model potrafi dostarczyć zawartości o bardzo wysokim poziomie toksyczności.

 

Kolejnym obszarem troski jest ochrona danych. Model GPT-4, mimo swojej zaawansowanej architektury, okazał się bardziej podatny na ujawnianie wrażliwych informacji treningowych niż GPT-3.5. Oznacza to, że istnieje ryzyko ujawnienia kluczowych informacji, takich jak adresy e-mail czy numery ubezpieczenia społecznego, w odpowiedzi na odpowiednio dobrane zapytanie.

 

Niezawodność GAI nie kończy się jednak na kwestiach bezpieczeństwa. Badacze zwrócili uwagę na problematyczne zachowanie modelu w odniesieniu do pewnych kategorii danych. Przykładowo, modele potrafiły prezentować uprzedzenia dotyczące dochodów w oparciu o płeć czy rasę.

 

Wszystko to prowadzi do wniosku, że choć potencjał GAI jest ogromny, to konieczna jest ostrożność w jej wykorzystaniu. Nie można bezrefleksyjnie polegać na wynikach dostarczanych przez te modele, zwłaszcza gdy mają one wpływ na kluczowe decyzje.

 

W świecie technologicznego postępu ważne jest, by rozwój GAI szedł w parze z odpowiedzialnością. Naukowcy i inżynierowie muszą być świadomi wyzwań i ograniczeń technologii, które tworzą. Wprowadzenie standardów, audytów oraz nieustannego badania i oceny modeli stanowi klucz do stworzenia bezpiecznej i odpowiedzialnej przyszłości w dziedzinie generatywnej sztucznej inteligencji.


Nowy lek zmniejsza ryzyko chorób układu krążenia nawet o 65%

Muvalaplina może być tym, na co wielu czekało w walce z chorobami sercowo-naczyniowymi. Badania na ludziach przyniosły zachwycające wyniki, pokazując, że ten eksperymentalny lek może drastycznie obniżyć poziom "złego" cholesterolu w organizmie. Jeżeli potwierdzą się te wczesne odkrycia, muvalaplina może stanowić ważny przełom w walce z jedną z głównych przyczyn zgonów na świecie.

 

Cholesterol sam w sobie nie jest czynnikiem złym. Faktycznie odgrywa kluczową rolę w wielu istotnych funkcjach w naszym organizmie. Jednakże, istnieją różne formy cholesterolu, a jedna z nich, lipoproteina(a) lub Lp(a), jest szczególnie problematyczna. Uważa się, że jest "lepka" i ma tendencję do gromadzenia się w naczyniach krwionośnych, prowadząc do ich zatykania. Badania pokazują, że wysoki poziom Lp(a) jest silnie związany z chorobami sercowo-naczyniowymi.

 

Ale obniżenie poziomu Lp(a) w organizmie to trudne zadanie. Tradycyjne metody, takie jak dieta i ćwiczenia, niewiele pomagają. Wcześniejsze próby medykamentami również nie były zbyt obiecujące. Stąd tak wielkie zainteresowanie muvalapliną.

 

W badaniu, które było przeprowadzone przez dr. Stevena Nichollsa i jego zespół z Monash Health, 114 ochotników testowało ten lek. Wyniki były piorunujące: wielu uczestników doświadczyło znacznego spadku poziomu Lp(a) w krwi - w niektórych przypadkach nawet o 65%. Co ważne, korzystne działanie leku trwało nawet do 50 dni po ostatniej dawce, a efekty uboczne były minimalne.

 

Oczywiście, to dopiero początek. Jedno badanie, nawet jeśli przynosi obiecujące wyniki, nie jest wystarczające do stwierdzenia, że mamy do czynienia z czymś naprawdę przełomowym. Muvalaplina jest obecnie badana w kolejnych etapach klinicznych, które mają na celu zrozumienie, jak skuteczny jest lek na większą skalę i czy może mieć jakiekolwiek długotrwałe skutki uboczne.

 

Jednak wstępne wyniki są naprawdę zachęcające. Jeśli muvalaplina okaże się tak skuteczna, jak się teraz wydaje, może to być wielki krok naprzód w walce z chorobami sercowo-naczyniowymi. Czekamy z niecierpliwością na kolejne badania i mamy nadzieję, że ten lek będzie dostępny dla tych, którzy go potrzebują, w najbliższej przyszłości.


Cyberatak na systemy kontroli ruchu lotniczego w Wielkiej Brytanii

Współczesny świat stał się nierozerwalnie związany z technologią. Wielu z nas zdaje sobie sprawę z potencjalnych ryzyk związanych z bezpieczeństwem w cyberprzestrzeni, ale czy jesteśmy świadomi skali tych zagrożeń, kiedy dotyczą one tak krytycznych sektorów jak kontrola ruchu lotniczego?

 

Niedawne wydarzenia w Wielkiej Brytanii dały wiele do myślenia. Poważne opóźnienia lotów, wynikające z problemów w systemach kontroli ruchu lotniczego, stały się przyczyną zaniepokojenia nie tylko pasażerów i personelu lotnisk, ale także rządu brytyjskiego. NATS, firma kontrolująca ruch lotniczy, zasugerowała „problem techniczny” jako przyczynę awarii. Jednakże, biorąc pod uwagę coraz częstsze próby ingerencji w krytyczne systemy przez hakerów, nie możemy wykluczyć możliwości celowego cyberataku.

 

Gdy systemy kontroli ruchu lotniczego zawodzą, cała struktura nadzoru lotów zostaje zachwiana. W takich sytuacjach, aby zapewnić bezpieczeństwo, konieczne jest przechodzenie do manualnych procedur, co nieuchronnie prowadzi do opóźnień i komplikacji. Bez odpowiedniej ochrony, konsekwencje mogą być znacznie bardziej katastrofalne niż tylko opóźnienia lotów.

 

Zaakcentowanie przez brytyjskiego Sekretarza ds. transportu Marka Harpera na konieczność świadomości pasażerów dotyczącej możliwych odszkodowań pokazuje powagę sytuacji. Podkreślono również pracę inżynierów nad rozwiązaniem problemu, ale czas potrzebny do przywrócenia pełnej funkcjonalności systemu jest niepewny.

 

Czy jednak można uznać teorię o cyberataku za prawdopodobną? Źródła z brytyjskiego wywiadu, cytowane przez brytyjskie media, uważają, że tak. Co więcej, podobne próby były już podejmowane w przeszłości w Europie. Bezpieczeństwo systemów kontrolujących ruch lotniczy powinno być więc traktowane jako priorytet. Zagrożenia cybernetyczne stają się coraz poważniejsze i obejmują wszystkie dziedziny życia, w tym lotnictwo.

 

W zglobalizowanym świecie, w którym technologia stała się kluczową częścią naszego życia, musimy podjąć świadome kroki, aby chronić nasze kluczowe infrastruktury. Wypadki takie jak ten w Wielkiej Brytanii są przypomnieniem o kruchości naszych systemów i potrzebie stałego inwestowania w ich bezpieczeństwo oraz niezawodność.


Zdaniem naukowców miliard ludzi będzie zagrożonych przez globalne ocieplenie

Kiedy mówimy o globalnym ociepleniu, często myślimy o roztapiających się lodowcach, zagrożonych gatunkach czy ekstremalnych zjawiskach pogodowych. Jednak najnowsze badanie naukowe sugeruje, że jest to także kwestia życia i śmierci dla miliarda ludzi do roku 2100.

 

Joshua Pearce z Uniwersytetu Zachodniego Ontario oraz Richard Parnkutta z Uniwersytetu w Grazu podkreślają pilną potrzebę interwencji. Ich badanie rzuca światło na potencjalnie dewastujące skutki globalnego ocieplenia. Jeśli temperatura naszej planety wzrośnie o więcej niż dwa stopnie Celsjusza do końca tego stulecia, będziemy świadkami tragedii na niespotykaną dotąd skalę, z biednymi społecznościami ponoszącymi największe koszty.

 

Biorąc pod uwagę wpływ przemysłu naftowego i gazowego, odpowiedzialnego za znaczący procent emisji gazów cieplarnianych, staje się jasne, że to właśnie te branże muszą ponieść konsekwencje swoich działań. Wielu mieszkańców regionów ubogich i odległych już cierpi z powodu skutków zmian klimatu wywołanych przez takie działalności.

 

Badanie uwypukla niezwykle niepokojący wskaźnik związany ze spalaniem węgla kopalnego. Za każde 1000 ton tego paliwa, jedna osoba traci życie przedwcześnie. Dane te bazują na analizie obszernej literatury naukowej i mają na celu uwidocznienie ludzkiego kosztu związanego z emisjami CO2.

 

Zrozumienie tej "reguły 1000 ton" jest kluczem do przyspieszenia działań na rzecz zrównoważonej przyszłości. Istnieje pilna potrzeba dekarbonizacji gospodarki światowej, poprzez inwestycje w efektywność energetyczną, przejście na odnawialne źródła energii, wdrażanie odpowiednich polityk oraz edukację i podnoszenie świadomości społecznej.

 

Jednak, jak podkreślają badacze, aby osiągnąć te cele, konieczne jest zrozumienie skali zagrożenia. Nie chodzi już tylko o ochronę środowiska, ale o ratowanie ludzkich żyć. Działania rządów, korporacji i poszczególnych osób muszą odzwierciedlać ten priorytet.


Hinduska agencja kosmiczna ISRO po podboju Księżyca skierowała się ku Słońcu

Indyjska Organizacja Badań Kosmicznych (ISRO) robi imponujące postępy w dziedzinie kosmicznej. Ich niedawny sukces, lądowanie Chandrayaan-3 na Księżycu, był triumfalny. W tym kontekście przyjęcie planów wystrzelenia satelity Aditya-L1, który ma na celu zbadanie Słońca, jest kolejnym znaczącym krokiem w kierunku pogłębiania naszej wiedzy o kosmosie.

 

 

Niespełna po dniach od udanej misji księżycowej, ISRO postanowiło przenieść swoje ambicje na kolejne ciało niebieskie, naszą własną gwiazdę, Słońce. Aditya-L1 nie będzie tylko pierwszym indyjskim obserwatorium słonecznym, ale także olśniewającą ilustracją możliwości technologicznych kraju.

 

Satelita, nazwany po hindi "Słońcem", zostanie umieszczony na strategicznie ważnej orbicie halo, 1,5 miliona km od naszej planety. Ta odległość umożliwi naukowcom nieprzerwane obserwacje Słońca, dając szansę na badanie aktywności słonecznej w czasie rzeczywistym. Za pomocą siedmiu instrumentów na pokładzie Aditya-L1, badacze będą analizować zewnętrzne warstwy Słońca, zgłębiając tajemnice fotosfery i chromosfery.

 

W perspektywie globalnej eksploracja Słońca i zrozumienie pogody kosmicznej ma kluczowe znaczenie dla naszej planety. Wiatr słoneczny i jego dynamika mają bezpośredni wpływ na Ziemię. Podczas gdy inne agencje, takie jak NASA czy Europejska Agencja Kosmiczna, już przeprowadziły takie badania, dla ISRO będzie to pionierska próba.

 

Co jest godne podkreślenia, Indie osiągają te sukcesy kosmiczne mimo znacząco mniejszego budżetu niż inne światowe potęgi w dziedzinie badań kosmicznych. To świadczy nie tylko o zaawansowanej technologii, ale także o umiejętnościach i zdolnościach inżynierów i naukowców pracujących nad tymi projektami.

 

Kolejne ambitne plany ISRO obejmują załogowy lot na niską orbitę okołoziemską oraz współpracę z Japonią w misji księżycowej. Indie również zamierzają rozszerzyć swoje badania na Wenus, planując misję w najbliższych latach.

 

Jasne jest, że ISRO nie zamierza spocząć na laurach. Sukcesy tej agencji świadczą nie tylko o innowacyjności i zdolnościach Indii, ale także przynoszą znaczący wkład w globalne zrozumienie kosmosu. Jak podkreśliła doktor Emily Johnson z NASA, zdolność Indii do osiągania tak znaczących postępów w eksploracji kosmicznej jest godna uznania i szacunku na światowej arenie.