Marzec 2024

Sześć krajów, które przetrwają demograficzną katastrofę do 2100 roku

Świat stoi w obliczu bezprecedensowych zmian demograficznych. Według najnowszych badań, do końca XXI wieku liczba ludności zmniejszy się w 97% krajów na świecie. Oznacza to, że większość państw doświadczy dramatycznego spadku populacji. Jednak wśród tego globalnego trendu istnieje wąska grupa krajów, które wydają się być odporne na tę demograficzną katastrofę.

 

 

Badania opublikowane w czasopiśmie "Lancet" wskazują, że do 2100 roku jedynie sześć państw utrzyma współczynnik dzietności na poziomie zapewniającym zastępowalność pokoleń. Są to: Samoa, Somalia, Tonga, Niger, Czad oraz Tadżykistan. Te kraje wyróżniają się na tle reszty świata, gdzie wskaźniki urodzeń spadają poniżej poziomu koniecznego do utrzymania liczebności populacji.

 

Przyczyny tej wyjątkowej sytuacji są złożone i sięgają korzeniami do uwarunkowań historycznych, kulturowych oraz społeczno-ekonomicznych tych państw. Przyjrzyjmy się im bliżej.

 

Somalia to jeden z najbiedniejszych krajów na świecie, zmagający się z licznymi wyzwaniami rozwojowymi. Jednak to właśnie ubóstwo i trudne warunki życia mogą być kluczem do zrozumienia jej wysokiej dzietności. W Somalii współczynnik płodności sięga 6,1 dziecka na kobietę, co plasuje ją w światowej czołówce pod tym względem.

 

Wysoka stopa urodzeń w Somalii wynika przede wszystkim z uwarunkowań kulturowych. W społeczeństwie somalijskim duża rodzina jest postrzegana jako wartość, a dzieci stanowią gwarancję wsparcia w starości. Ponadto, niski poziom edukacji, szczególnie wśród kobiet, przekłada się na wczesne macierzyństwo i brak dostępu do nowoczesnych metod planowania rodziny.

 

Choć Somalia boryka się z licznymi problemami, takie podejście do kwestii demograficznych sprawia, że kraj ten pozostaje odporny na globalne trendy starzenia się społeczeństw.

 

Podobna sytuacja występuje w Nigrze, który może poszczycić się najwyższym na świecie współczynnikiem dzietności - sięgającym 7,1 dziecka na kobietę. Również w tym przypadku kluczową rolę odgrywają czynniki kulturowe.

 

W Nigrze posiadanie dużej rodziny jest postrzegane jako wyznacznik prestiżu społecznego. Ponadto, wysoka śmiertelność niemowląt skłania pary do rodzenia większej liczby dzieci, aby zapewnić przetrwanie przynajmniej części z nich. Dodatkowo, ograniczony dostęp do edukacji i środków antykoncepcyjnych uniemożliwia skuteczne planowanie rodziny.

 

Choć wysoka dzietność w Nigrze stanowi wyzwanie rozwojowe, to jednocześnie zapewnia temu krajowi odporność na negatywne tendencje demograficzne obserwowane w większości państw.

 

Na liście krajów, które unikną demograficznej katastrofy, znajduje się również Tadżykistan. Ten środkowoazjatycki kraj utrzymuje współczynnik dzietności na poziomie 3,8 dziecka na kobietę - znacznie powyżej poziomu zastępowalności pokoleń.

 

Podobnie jak w przypadku Somalii i Nigru, kluczową rolę odgrywają tu czynniki kulturowe. W tradycyjnym tadżyckim społeczeństwie duża rodzina jest postrzegana jako gwarancja wsparcia w trudnych czasach. Ponadto, niski status społeczny kobiet i ograniczony dostęp do edukacji seksualnej oraz środków antykoncepcyjnych sprzyjają wysokiej dzietności.

 

Choć Tadżykistan boryka się z licznymi wyzwaniami gospodarczymi, jego społeczeństwo pozostaje odporne na globalne trendy demograficzne, zapewniając temu krajowi przetrwanie w obliczu nadchodzącej "demograficznej zimy".

 

Oprócz wymienionych wcześniej krajów, na liście państw, które unikną demograficznej katastrofy, znajdują się również Samoa, Tonga i Czad. Samoa i Tonga to małe wyspiarskie państwa na Pacyfiku, gdzie wysoki współczynnik dzietności (odpowiednio 4,2 i 3,9 dziecka na kobietę) wynika z silnych tradycji kulturowych oraz ograniczonego dostępu do nowoczesnych metod planowania rodziny.

 

Z kolei Czad, afrykański kraj o niskim poziomie rozwoju społeczno-ekonomicznego, utrzymuje współczynnik dzietności na poziomie 6,0 dziecka na kobietę. Podobnie jak w przypadku Somalii i Nigru, kluczową rolę odgrywają tu czynniki kulturowe, w tym postrzeganie dużej rodziny jako gwarancji przetrwania w trudnych warunkach.

 

Pomimo licznych wyzwań, z jakimi borykają się te państwa, ich wysoka dzietność sprawia, że pozostają one odporne na globalne trendy demograficzne, zapewniając im przetrwanie w nadchodzącym stuleciu.

 

Choć większość krajów na świecie doświadczy dramatycznego spadku liczby ludności w XXI wieku, istnieje wąska grupa państw, które wydają się być odporne na tę demograficzną katastrofę. Są to Samoa, Somalia, Tonga, Niger, Czad oraz Tadżykistan - kraje, w których wysoki współczynnik dzietności wynika przede wszystkim z uwarunkowań kulturowych i ograniczonego dostępu do nowoczesnych metod planowania rodziny.

 

Choć wysoka dzietność w tych państwach stanowi wyzwanie rozwojowe, to jednocześnie zapewnia im odporność na negatywne tendencje demograficzne obserwowane w większości krajów na świecie. Dzięki temu Samoa, Somalia, Tonga, Niger, Czad oraz Tadżykistan mają szansę przetrwać nadchodzącą "demograficzną zimę" i zachować stabilność swojej populacji w XXI wieku.

 


Korea Południowa przetestowała nowy pocisk balistyczny Hyunmoo-IV-2

Korea Południowa nieustannie dąży do zwiększenia swojego potencjału militarnego, aby zapewnić sobie silniejszą pozycję w regionie. Najnowszym przykładem tych wysiłków jest program rozwoju nowego pocisku balistycznego Hyunmoo-IV-2, który ma znacząco wzmocnić zdolności kraju w zakresie prowadzenia działań morskich.

 

Południowokoreańskie władze podjęły decyzję o rozwoju tego zaawansowanego systemu rakietowego podczas niedawnego posiedzenia Komitetu Promocji Programu Obronnego. Uznano, że pociski balistyczne wystrzeliwane z okrętów będą stanowić ważny element strategii Korei Południowej, pozwalając na przeprowadzanie precyzyjnych ataków na duże odległości, z możliwością rażenia kluczowych celów przeciwnika.

 

Projekt Hyunmoo-IV-2 będzie nadzorowany przez Agencję Rozwoju Obrony (ADD), która ma za zadanie doprowadzić go do etapu "rozwoju systemu", pomijając wstępną fazę badawczą. Takie rozwiązanie ma przyspieszyć cały proces, który ma zakończyć się do 2028 roku. Następnie, w ciągu kolejnego roku, ruszy produkcja seryjna. Całkowity koszt programu szacowany jest na ponad 2 miliardy złotych.

 

Nowy pocisk balistyczny został zaprojektowany do współpracy z trzema różnymi typami okrętów południowokoreańskiej marynarki wojennej, wyposażonych w rodzime systemy pionowych wyrzutni KVLS-II. Charakterystyka Hyunmoo-IV-2 jest bardzo podobna do cech pocisku Hyunmoo-IV-4, używanego do wystrzeliwania z okrętów podwodnych. Oba systemy wyróżniają się zasięgiem przekraczającym 800 kilometrów, zaawansowanymi głowicami penetracyjnymi oraz rozwiązaniami przeciwdziałającymi zakłóceniom.

 

Rozwój Hyunmoo-IV-2 odzwierciedla dążenie Korei Południowej do wzmocnienia swojego potencjału obronnego, szczególnie w kontekście napiętej sytuacji geopolitycznej w regionie. Nowy pocisk balistyczny ma stanowić istotny element południowokoreańskiej strategii odstraszania, pozwalając na precyzyjne rażenie kluczowych obiektów wroga z dużej odległości. Inwestycja ta jest kolejnym krokiem w kierunku budowania silniejszej pozycji militarnej kraju na arenie międzynarodowej.

 


Chiński humanoidalny robot rozpędza się do zawrotnej prędkości

Świat robotyki przeżywa prawdziwe rewolucyjne zmiany. Najnowsze dokonania inżynierów z Chin udowadniają, że ludzka sylwetka robotów to nie tylko estetyczny zabieg, ale także niezwykle funkcjonalne rozwiązanie. Okazuje się, że dwunożne maszyny są w stanie osiągać imponujące prędkości, dorównując w tym zakresie, a nawet przewyższając, ludzkie możliwości.

 

Kluczowym przykładem tej tendencji jest model H1 stworzony przez chińską firmę Unitree. Ten humanoidalny robot jest w stanie rozpędzić się do zawrotnej prędkości około 12 kilometrów na godzinę. To wynik, który zdecydowanie wyprzedza wcześniejsze osiągnięcia innych konstrukcji tego typu, takich jak słynny Atlas od Boston Dynamics, który maksymalnie osiągał niecałe 10 km/h.

 

Co więcej, przedstawiciele Unitree zapowiadają, że w przyszłości ich roboty będą w stanie biegać z prędkością nawet do 30 kilometrów na godzinę. Taki wynik mógłby stawić czoła nawet najszybszym ludzkim sprinterom. Oczywiście, na razie jest to jedynie wizja, ale fakt, że inżynierowie są w stanie snuć tego typu plany, świadczy o ogromnym potencjale dwunożnych maszyn.

 

Humanoidalny robot H1 mierzy około 180 centymetrów i waży około 50 kilogramów. Na jego pokładzie znajduje się akumulator o pojemności 864 Wh oraz zaawansowany system nawigacyjny wyposażony w kamerę 3D LiDAR i kamerę głębinową. Dzięki temu H1 jest w stanie w pełni orientować się w otoczeniu, co jest kluczowe dla jego sprawnego poruszania się.

 

Warto podkreślić, że mimo imponujących prędkości, H1 nie jest jedynym szybkim dwunożnym robotem. Przykładem może być Cassie, stworzony przez studentów z College of Engineering na Oregon State University. Ta konstrukcja pokonała dystans 100 metrów w niecałe 25 sekund, osiągając średnią prędkość 15 km/h. Jednak Cassie, w przeciwieństwie do H1, nie posiada w pełni humanoidalnej sylwetki, co sprawia, że model Unitree jest wyjątkowy na tle innych konstrukcji.

 

Dlaczego dwunożne roboty są tak fascynujące? Przede wszystkim dlatego, że naśladują one jedną z najbardziej podstawowych cech ludzkiej motoryki - chodzenie na dwóch nogach. Ten sposób poruszania się, choć dla nas naturalny, stanowi ogromne wyzwanie dla inżynierów. Przez lata humanoidalne maszyny borykały się z problemami z utrzymaniem równowagi, a ich prędkość była daleko w tyle za ludzką.

 

Jednak postęp technologiczny sprawia, że te ograniczenia powoli odchodzą w zapomnienie. Roboty zyskują coraz większą stabilność i zwinność, zbliżając się do poziomu ludzkiej motoryki. A rekordy prędkości, takie jak ten ustanowiony przez H1, pokazują, że w niektórych aspektach maszyny mogą już dorównywać, a nawet przewyższać, ludzkie możliwości.

 

Oczywiście, droga do stworzenia w pełni autonomicznych i wydajnych robotów humanoidalnych wciąż jest długa. Wiele wyzwań, takich jak zasilanie, sterowanie czy reakcje na nieprzewidziane sytuacje, wciąż czeka na rozwiązanie. Ale przykład H1 dowodzi, że inżynierowie są na dobrej drodze do realizacji tego ambitnego celu.

 

Być może w niedalekiej przyszłości będziemy mogli podziwiać humanoidalne roboty biegające z zawrotną prędkością, a nawet rywalizujące z najszybszymi ludźmi. Taka wizja, choć jeszcze niedawno wydawała się science-fiction, staje się coraz bardziej realna. Czas pokaże, jak daleko posunie się ta rewolucja w świecie robotyki.

 


Niezwykłe odkrycie na dnie Bajkału - zlokalizowano nieznane wulkany błotne

Obszar Bajkału od dawna intryguje naukowców ze względu na jego wyjątkową geomorfologię i złożone procesy geologiczne zachodzące na dnie. Najnowsze odkrycia dokonane przez zespoły badawcze z Rosyjskiej Akademii Nauk pozwalają mieć nadzieję na lepsze zrozumienie struktury i dynamiki dna tego olbrzymiego jeziora.

 

Badacze, wykorzystując zdalnie sterowane pojazdy podwodne (ROV), zlokalizowali nowe wulkany błotne w dwóch rejonach północnego Bajkału - między przylądkami Malajów i Bolszaja Kosa oraz w zatoce Goryachinskaya. Odkrycie to jest o tyle istotne, że dno jeziora Bajkał wciąż pozostaje w dużej mierze niezbadane, a nowe wulkany błotne mogą dostarczyć cennych informacji na temat topografii i procesów geologicznych zachodzących w tym unikatowym akwenie.

 

Wulkany błotne to specyficzne struktury, które powstają w wyniku wydobywania się na powierzchnię ziemi płynnego błota i gazów. Ich obecność na dnie Bajkału jest dowodem na aktywność tektoniczną tego obszaru, w tym na działanie uskoku Siewierobajkalskiego biegnącego wzdłuż brzegu jeziora. Zdaniem naukowców, wulkany te wskazują, że uskok ten jest wciąż aktywny, a w przeszłości w jego obrębie dochodziło do silnych trzęsień ziemi, o czym świadczą pęknięcia sejsmiczne wzdłuż wybrzeża.

 

Odkrycie wulkanów błotnych na dnie Bajkału jest niezwykle interesujące nie tylko z punktu widzenia geologii, ale również biologii. Wokół tego typu struktur często rozwijają się specyficzne ekosystemy, zamieszkiwane przez unikatowe organizmy przystosowane do życia w ekstremalnych warunkach. Zbadanie tych ekosystemów może dostarczyć cennych informacji na temat mechanizmów adaptacji życia do niesprzyjających warunków środowiskowych.

 

Ponadto, dane zebrane podczas badań wulkanów błotnych mogą stanowić podstawę do interpretacji nowych informacji na temat struktury dna jeziora Bajkał. Jak podkreślają naukowcy, topografia tego akwenu wciąż nie jest wystarczająco dobrze poznana, a odkrycie nowych, nieznanych dotąd struktur geologicznych może znacząco poszerzyć naszą wiedzę na ten temat.

 

Jezioro Bajkał to wyjątkowy obiekt przyrodniczy, będący przedmiotem intensywnych badań naukowców z całego świata. Odkrycie nowych wulkanów błotnych na jego dnie otwiera nowe możliwości eksploracji tego niezwykłego akwenu i pogłębienia naszego zrozumienia procesów geologicznych oraz biologicznych zachodzących w jego obrębie. Prace badawcze w tym kierunku z pewnością przyniosą wiele cennych informacji, które pozwolą lepiej poznać tę fascynującą część naszej planety.

 


Nadciąga cyfrowe tsunami - nowy procesor NVIDIA odmieni nasz świat

Nadciąga technologiczna burza, która odmieni nasz świat. Ziemia stoi w obliczu niezwykłej technologicznej rewolucji, której katalizatorem jest potężny, nowy procesor stworzony przez amerykańską firmę NVIDIA. Ten superszybki układ oznacza gwałtowne przyspieszenie w rozwoju sztucznej inteligencji, otwierając drzwi do zastosowań, o których jeszcze niedawno mogliśmy tylko pomarzyć.

 

Czip B100 zaprezentowany przez NVIDIA to prawdziwy przełom. Ekonomiści zgodnie twierdzą, że to początek nowej ery przemysłowej, a zarazem koniec rynku pracy, jaki znamy dotychczas. Giganci technologiczni już planują, jak wykorzystać ten nowy procesor - od odkurzaczy po roboty chirurgiczne, samochody elektryczne i humanoidalne maszyny, które mogą zastąpić ludzi w wielu codziennych czynnościach.

 

Rewolucja napędzana przez sztuczną inteligencję już się rozpoczęła. Dwa lata temu kluczowym wydarzeniem był ChatGPT - zaawansowany model językowy stworzony przez OpenAI. Od tamtej pory AI dokonuje imponujących postępów, znajdując zastosowanie w coraz to nowych dziedzinach - od tkactwa po sterowanie autobusami miejskimi.

 

Teraz, wraz z pojawieniem się procesora B100, nadchodzi kolejny przełomowy etap tej rewolucji. Ekonomiści zgodnie twierdzą, że to początek nowej ery przemysłowej, w której sztuczna inteligencja będzie odgrywać kluczową rolę. Jednocześnie, ta technologiczna transformacja oznacza koniec rynku pracy, jaki znamy do tej pory.

 

Giganci technologiczni już planują, jak wykorzystać potencjał nowego procesora NVIDIA. Zastosowania obejmują spektrum od prostych urządzeń, takich jak odkurzacze, po zaawansowane roboty chirurgiczne i autonomiczne samochody elektryczne. Nawet humanoidalne maszyny, które mogą zastąpić ludzi w wielu codziennych czynnościach, stają się coraz bliższe rzeczywistości.
Szczególnie niepokojące są prognozy dotyczące rynku pracy.

 

Według ekspertów, sztuczna inteligencja już zastępuje armię programistów w Stanach Zjednoczonych. Szef NVIDIA radzi młodym ludziom, aby zamiast uczyć się programowania, skupili się na uprawie ekologicznych warzyw - tego bowiem AI jeszcze nie potrafi.

 

Rewolucja technologiczna oznacza, że wiele dotychczasowych zawodów stanie się zbędnych. Kto pierwszy zostanie w tej transformacji pokonany? Czy nadchodzi koniec ery programistów i innych specjalistów, których pracę będzie mogła wykonywać sztuczna inteligencja?


Nadciągająca rewolucja spowodowana rozwojem AI będzie miała daleko idące konsekwencje. Nie tylko to, jak pracujemy, ale także to, czym się zajmujemy, a nawet to, ile mamy czasu wolnego i jak go spędzamy, ulegnie radykalnym przemianom.

 

Świat stoi na progu nowej ery, w której sztuczna inteligencja będzie odgrywać kluczową rolę we wszystkich aspektach naszego życia. Choć zmiany te mogą budzić obawy, to jednocześnie otwierają nowe, ekscytujące możliwości. Jak poradzimy sobie z tą technologiczną burzą, która nadciąga, będzie miało kluczowe znaczenie dla naszej przyszłości.

 


Brytyjczycy modernizują swój arsenał jądrowy

Wielka Brytania, kraj o długiej i bogatej historii, stoi obecnie na progu nowej ery swojej potęgi militarnej. W ciągu najbliższych kilku lat, ta wyspiarska nacja będzie dysponować znacznie wzmocnionym arsenałem broni jądrowej, co bez wątpienia będzie miało istotny wpływ na układ sił na arenie międzynarodowej.

 

Kluczowym elementem tej transformacji jest rozwój nowoczesnych okrętów podwodnych typu Dreadnought, wyposażonych w najnowocześniejsze pociski balistyczne Trident-II. Jednak to nie koniec zmian - Wielka Brytania poszła o krok dalej, opracowując zupełnie nową głowicę jądrową o nazwie A21, znaną również jako Astraea.

 

Choć szczegóły tej broni są owiane tajemnicą, wiadomo, że jej potencjał jest ogromny. Aby w pełni wykorzystać możliwości nowej głowicy, Brytyjczycy opracowali innowacyjne podejście do testowania tej technologii. Zamiast tradycyjnych prób jądrowych, które stały się coraz rzadsze na arenie międzynarodowej, Wielka Brytania postawiła na zaawansowane metody symulacyjne.

 

Kluczową rolę w tym procesie odgrywają dwa niezwykłe narzędzia - system laserowy Orion oraz superkomputer Valiant, będący jednym z najwydajniejszych komputerów w kraju. Te zaawansowane technologie pozwalają naukowcom na dogłębne badanie ekstremalnych temperatur i ciśnień, charakterystycznych dla wybuchu nuklearnego, bez konieczności faktycznej detonacji ładunku.

 

Dodatkowo, Wielka Brytania będzie współpracować z Francją, wykorzystując obiekt EPURE, specjalizujący się w testach hydrodynamicznych. Dzięki temu, badacze będą mogli jeszcze dokładniej analizować wydajność materiałów w warunkach zbliżonych do tych panujących podczas wybuchu jądrowego.

 

Ta kompleksowa strategia testowania nowej broni jądrowej jest nie tylko innowacyjna, ale również niezwykle istotna dla Wielkiej Brytanii. Nie tylko pozwoli ona na potwierdzenie niezawodności i niszczycielskiej mocy głowicy A21, ale także zapewni cenne informacje, które mogą być wykorzystane przez inne państwa posiadające broń nuklearną, w tym Stany Zjednoczone, gdzie głowica ta ma być zintegrowana z pociskami Trident II.

 

Należy podkreślić, że Wielka Brytania nie zamierza angażować się w tradycyjne testy jądrowe, które budziły powszechne obawy i kontrowersje. Zamiast tego, wybrano drogę bardziej zrównoważonego i odpowiedzialnego podejścia, wykorzystując najnowocześniejsze technologie symulacyjne. To rozwiązanie, choć może wydawać się mniej spektakularne, jest znacznie bezpieczniejsze i pozwala na uzyskanie cennych danych, które będą miały kluczowe znaczenie dla przyszłości brytyjskiego potencjału nuklearnego.

 

Nadchodzące lata będą zatem kluczowe dla Wielkiej Brytanii, która stoi na progu nowej ery swojej potęgi militarnej. Rozwój nowoczesnych okrętów podwodnych, połączony z wdrożeniem zaawansowanej głowicy jądrowej A21, wzmocni pozycję tego kraju na arenie międzynarodowej. Jednocześnie, innowacyjne podejście do testowania tej broni, oparte na technologiach symulacyjnych, stawia Wielką Brytanię na czele światowych trendów w dziedzinie bezpiecznego i odpowiedzialnego rozwoju potencjału nuklearnego.

 


Przełomowe odkrycie zapewni bezpieczną komunikację kwantową

W świecie nauki, gdzie granice ludzkiej wiedzy wciąż są przesuwane, pojawia się kolejne przełomowe odkrycie, które może zrewolucjonizować nasze podejście do komunikacji. Grupa naukowców z University of Waterloo w Kanadzie dokonała znaczącego postępu w dziedzinie komunikacji kwantowej, opracowując efektywny sposób na uzyskiwanie doskonale splątanych fotonów.

 

Splątanie kwantowe to zjawisko, w którym dwa lub więcej cząstek są ze sobą nierozerwalnie powiązane, niezależnie od odległości, która je dzieli. Oznacza to, że gdy zmierzy się właściwość jednej z cząstek, natychmiastowo poznaje się również właściwość drugiej. Ten niezwykły efekt kwantowy stanowi podstawę wielu technologii komunikacji kwantowej, takich jak dystrybucja klucza kwantowego czy łączenie odległych komputerów kwantowych.

 

Wcześniejsze eksperymenty w tej dziedzinie napotykały na dwa główne wyzwania. Z jednej strony naukowcom udawało się uzyskiwać niemal idealne splątanie, ale kosztem niskiej wydajności systemu. Z drugiej strony, wysokowydajne źródła fotonów często charakteryzowały się niższą jakością splątania. Oznaczało to, że naukowcy musieli wybierać pomiędzy tymi dwoma parametrami, nie mogąc osiągnąć obu celów jednocześnie.

 

Kluczem do rozwiązania tego problemu okazało się wykorzystanie technologii kropek kwantowych, za którą w 2023 roku przyznano Nagrodę Nobla. Naukowcy z University of Waterloo połączyli wiele kropek kwantowych w nanoprzewód, tworząc źródło doskonale splątanych fotonów aż 65 razy wydajniejsze od wcześniejszych rozwiązań.

 

Proces generowania splątanych fotonów przebiega w następujący sposób: po oświetleniu nanoprzewodu laserem, system ten wytwarza strumień doskonale splątanych par fotonów. Dzięki temu połączeniu wysokiej jakości splątania z dużą wydajnością, otwierają się nowe możliwości dla zastosowań komunikacji kwantowej.

 

Uzyskanie sprawnie tworzonej pary doskonale splątanych fotonów ma ogromny potencjał dla rozwoju technologii związanych z komunikacją kwantową. Jednym z kluczowych zastosowań może być kwantowa dystrybucja klucza, która pozwala na bezpieczną wymianę szyfrów między odległymi lokalizacjami. Inną ekscytującą perspektywą jest możliwość łączenia odległych komputerów kwantowych, co mogłoby znacząco zwiększyć moc obliczeniową tych urządzeń.

 

Ponadto, nowy system generowania splątanych fotonów może pomóc w zwiększeniu zasięgu bezpiecznej komunikacji kwantowej do globalnej skali. Dotychczas jednym z ograniczeń było to, że splątane fotony tracą swoje właściwości podczas przesyłania na duże odległości. Dzięki większej wydajności, system opracowany przez naukowców z University of Waterloo może pomóc w pokonaniu tej bariery.

 

Warto podkreślić, że badania związane z komunikacją kwantową i splątaniem cząstek są coraz bardziej doceniane w świecie nauki. W 2022 roku Nagroda Nobla w dziedzinie fizyki została przyznana za eksperymenty, które dowiodły istnienia splątania kwantowego i jego potencjalnego wykorzystania. Natomiast w 2023 roku, Nagroda Nobla trafiła do naukowców, którzy opracowali technologię kropek kwantowych.

 

Te wyróżnienia podkreślają rosnące znaczenie badań nad komunikacją kwantową i jej potencjał do transformacji wielu obszarów naszego życia, od cyberbezpieczeństwa po obliczenia kwantowe. Przełomowe odkrycie dokonane przez zespół z University of Waterloo wpisuje się w ten trend i może stanowić ważny krok na drodze do praktycznego wykorzystania zjawiska splątania kwantowego.

 


Niezwykłe zjawisko kalima nad Polską. Pył znad Sahary dotarł do Europy z falą ciepłego powietrza

Wielkanoc to czas radości i odrodzenia, kiedy przyroda budzi się do życia po długiej zimie. Niestety, w tym roku naszemu świętowaniu towarzyszyć będzie zjawisko, które dla wielu osób może okazać się uciążliwe - kalima znad Sahary. Co to takiego i jak wpłynie na nasze samopoczucie podczas świąt?

 

Kalima to określenie na zjawisko, które co roku obserwujemy w okresie wiosennym, a związane jest ono z przemieszczaniem się mas powietrza znad Sahary. Pustynny pył i drobiny piasku unoszą się w atmosferze, tworząc charakterystyczne mętne, piaskowe niebo. W tym roku okres największego nasilenia kalimy przypada właśnie na Wielkanoc.

 

W sobotę i niedzielę (30-31 marca) strefa pyłu saharyjskiego przemieści się nad zachodnią część naszego kraju. Choć nie będzie to tak intensywne zjawisko, jak na Wyspach Kanaryjskich, gdzie w skrajnych przypadkach widoczność spada dramatycznie, przypominając mgłę, to i u nas odczujemy jego obecność.

Niebo będzie wyglądać mętnie i niewyraźnie, a na powierzchni przedmiotów pojawi się żółtawy nalot. Nie zabraknie też efektownych, pomarańczowo-piaskowych zachodów słońca, które z pewnością zachwycą miłośników fotografii przyrody. Niestety, dla wielu osób kalima może okazać się prawdziwym utrapieniem.

 

Największe problemy z kaimą mogą mieć osoby cierpiące na różnego rodzaju alergie. Wdychanie drobinek pustynnego pyłu może bowiem prowadzić do poważnych dolegliwości. Alergicy mogą doświadczyć nasilenia objawów sezonowych, takich jak podrażnienie śluzówek nosa, gardła i krtani, uciążliwa chrypka, łzawienie oczu, zapalenie spojówek, katar, zapalenia zatok.

 

Osoby z astmą oskrzelową mogą również odczuć pogorszenie stanu zdrowia, ponieważ przenoszony przez wiatry pył może zawierać pyłki roślin, będące dla nich silnym alergenem. Z kolei ci, którzy zmagają się z atopowym zapaleniem skóry lub innymi alergiami skórnymi, mogą doświadczyć nasilenia takich dolegliwości, jak świąd, suchość i łuszczenie się skóry.

 

Szczególną ostrożność powinny zachować również osoby z chorobami płuc oraz problemami górnych dróg oddechowych, dla których wdychanie pustynnego pyłu może okazać się niebezpieczne.

 

Jak radzić sobie z kalimą? Choć kalima to zjawisko, którego nie jesteśmy w stanie uniknąć, to istnieją sposoby, by zminimalizować jej niekorzystny wpływ na nasze zdrowie. Oto kilka wskazówek:

1. Pozostawać w domu - Jeśli tylko jest to możliwe, warto ograniczyć czas przebywania na zewnątrz, zwłaszcza w godzinach popołudniowych, kiedy stężenie pyłu w powietrzu jest najwyższe.

2. Nosić maseczki - Podczas koniecznych wyjść z domu warto zaopatrzyć się w maseczki ochronne, które pomogą ograniczyć wdychanie drobinek piasku.

3. Dbać o higienę - Regularnie myć twarz i oczy, by usunąć nagromadzony pył. Codzienne oczyszczanie nosa i gardła także może przynieść ulgę.

4. Stosować leki - Osoby cierpiące na alergie powinny skonsultować się z lekarzem i zaopatrzyć w odpowiednie leki, które pomogą złagodzić objawy.

5. Oczyszczać powietrze w domu - Warto włączyć oczyszczacze powietrza, które skutecznie filtrują drobiny piasku.

Choć kalima z pewnością utrudni nam tegoroczne świętowanie Wielkanocy, to pamiętajmy, że jest to zjawisko naturalne i okresowe. Odpowiednie przygotowanie się na jej nadejście i zastosowanie kilku prostych środków ostrożności pozwoli nam cieszyć się radosnym czasem świąt, mimo niekorzystnych warunków atmosferycznych.

 


Elon Musk buduje sieć setek satelitów szpiegowskich dla amerykańskich służb wywiadowczych

Rząd USA po raz kolejny próbuje przejąć kontrolę nad całą planetą. Poinformowała o tym agencja informacyjna Reuters 16 marca 2024 roku. Dziennikarze powoływali się na pięć niezależnych źródeł, które osobiście widziały dokumenty. Obejmowały one tajny kontrakt pomiędzy SpaceX a amerykańską Agencją Rozpoznania Narodowego (NIA). Departament ten jest jednostką strukturalną Departamentu Obrony Stanów Zjednoczonych. Według źródeł kontrakt podpisany w 2021 roku jest wart 1,8 miliarda dolarów.

 

 

Satelity mogą śledzić cele naziemne i przekazywać te dane amerykańskiemu wywiadowi i agencjom wojskowym.

 

Tę informację można zlekceważyć, ale z pewnością jest ona zgodna z raportem z lutego 2024 r. opublikowanym przez „Wall Street Journal”. W szczególności mówi się, że SpaceX był w stanie zawrzeć bardzo „gruby” i równie tajny kontrakt z rządem USA w 2021 roku. Wartość transakcji wyniosła te same 1,8 miliarda dolarów.

 

Dziennikarze Reutersa nie byli jeszcze w stanie określić, kiedy siatka szpiegowska będzie w pełni operacyjna. Jednak pracownikom agencji udało się znaleźć potwierdzone informacje, że w ciągu ostatnich kilku lat firmie Muska udało się wynieść na orbitę ponad 10 prototypowych satelitów. Agencja informacyjna podała również, że pojazdy testowe zostały dostarczone w przestrzeń kosmiczną za pomocą ciężkiej rakiety SpaceX Falcon 9 oraz innych satelitów cywilnych.

 

Ponadto SpaceX ma tysiące satelitów na niskich orbitach okołoziemskich. Starlink świadczy usługi szerokopasmowego Internetu osobom fizycznym, firmom i oczywiście klientom rządowym. Według Reutersa satelity szpiegowskie będą również operować na niskich orbitach i najprawdopodobniej dla większego bezpieczeństwa zostaną one ukryte wśród urządzeń Starlink.

 

Informacje te po raz kolejny potwierdzają wnioski części ekspertów, że miliarder Elon Musk jest w rzeczywistości projektem rządu USA, w większości Departamentu Obrony Stanów Zjednoczonych. SpaceX jest możliwie najściślej zaangażowane w amerykańskie projekty wywiadowcze i wojskowe.

 

Pentagon intensywnie inwestuje w ogromne sieci satelitarne działające na niskich orbitach okołoziemskich. Miliardy te, według wyliczeń amerykańskich generałów, mają na celu wsparcie amerykańskich sił lądowych.

 

Jeśli program się powiedzie, znacznie zwiększy zdolność rządu i wojska USA do szybkiego wykrywania potencjalnych celów praktycznie w dowolnym miejscu na świecie.

 

Sieć szpiegowska zostanie utworzona z dużych satelitów wyposażonych w potężne czujniki obrazu. Obsługiwane będą przez dużą liczbę satelitów przekaźnikowych, które odebrane informacje będą przesyłać na Ziemię za pomocą szyfrowanych laserowych linii komunikacyjnych.

 

Według Reutersa część czujników stosowanych w satelitach szpiegowskich jest produkowana przez inną firmę niż SpaceX. Dziennikarzom nie udało się jednak dowiedzieć, jakie inne firmy brały udział w tym kontrakcie. To tajemnica państwowa USA.

 

Projekt szpiegowski jest bezpośrednio powiązany z inną firmą Muska - Starshield.

 

Pierwszy prototyp satelity Starshield, wystrzelony w 2020 roku, był częścią osobnego kontraktu o wartości około 200 milionów dolarów. W ogromnym stopniu pomógł firmie SpaceX zakwalifikować się do podpisanej wkrótce potem umowy o wartości 1,8 miliarda dolarów.

 

Dla tych, którzy nie wiedzą, Starshield to kryptobezpieczna sieć komunikacji satelitarnej. Stworzona specjalnie dla agencji wywiadowczych, pracowników wojskowych i rządowych Stanów Zjednoczonych.

 

Dziennikarzom Reuters udało się skontaktować z służbą prasową NRU. Przedstawiciele Agencji Wywiadu oświadczyli, że opracowywany przez nią system wywiadu kosmicznego, obserwacji i rozpoznania będzie potężniejszy i bezpieczniejszy niż kiedykolwiek wcześniej na świecie. Jednocześnie pracownicy NIA całkowicie zignorowali pytanie Reutersa o udział SpaceX w tworzeniu siatki szpiegowskiej.

 

Jednak pomimo bardzo bliskich powiązań firmy Muska z amerykańskimi agencjami rządowymi, miliarder okresowo „walczy” z różnymi amerykańskimi agencjami federalnymi. W szczególności Pentagon chciał, aby Elon Musk zapewnił Ukrainie bezpłatne usługi Internetu satelitarnego Starlink, na co ten jednak kategorycznie odmówił. Departament Obrony USA musiał kupić sprzęt od Muska.

 

Ponadto wszczęto śledztwo parlamentarne przeciwko SpaceX. Elon Musk został oskarżony o wykorzystywanie przez rosyjskie wojska amerykańskiego Internetu Starlink do koordynowania i kierowania dronami. To prawda, że w tej sytuacji nie było jasne, skąd pochodzi sprzęt. Według jednej wersji wojsko rosyjskie korzystało ze zdobytych terminali. Według innego zestawy Starlink zostały zakupione za pośrednictwem stron trzecich i dostarczone do Rosji z pominięciem wszelkich sankcji.

 

Chiński rząd i wojsko wyrazili już swoje obawy dotyczące nowego projektu Pentagonu.

 

„Wzywamy amerykańskie firmy, aby nie pomagały złoczyńcom w czynieniu zła... Wszystkie kraje na świecie muszą zachować czujność i chronić, a także bronić się przed nowymi i poważniejszymi zagrożeniami dla bezpieczeństwa stwarzanymi przez rząd USA” — to wiadomość z oficjalnego konta chińskiego Ministerstwa Obrony w serwisie społecznościowym Weibo.

 

Jednak sami Chińczycy aktywnie budują własną siatkę szpiegowską na niskiej orbicie okołoziemskiej. Pojawiają się też informacje, że od jakiegoś czasu to samo robi Rosja. Ale to temat na osobny artykuł.

 


Zmiany klimatu wpływają na nasze portfele

Zmiany klimatu to temat, który coraz częściej przewija się w dyskusjach na temat przyszłości naszej planety. Najnowsze badania przeprowadzone przez ekspertów z Europejskiego Banku Centralnego rzucają nowe światło na ten problem, ukazując jego bezpośredni wpływ na nasze portfele.

 

Analiza danych z 121 krajów od 1996 roku wykazała, że ekstremalne warunki pogodowe, w szczególności fale upałów, mają bezpośrednie przełożenie na wzrost cen żywności i innych towarów. Naukowcy szacują, że do 2035 roku koszty żywności mogą wzrosnąć o 1,5-1,8%, co spowoduje zwiększenie globalnej inflacji o 0,8-0,9 punktu procentowego rocznie.

 

Jeszcze bardziej niepokojące są prognozy na 2060 rok. Według badań, światowe ceny żywności będą rosły o 2,2-4,3 punktu procentowego rocznie, co oznacza, że inflacja ogółem wzrośnie o 1,1-2,2 punktu procentowego. 

 

Co więcej, naukowcy wskazują, że presja inflacyjna na ceny żywności i innych towarów jest większa w cieplejszych porach roku i w cieplejszych regionach. Oznacza to, że Europa i Ameryka Północna mogą zostać dotknięte tym problemem w mniejszym stopniu niż regiony położone bliżej równika, takie jak Bliski Wschód.

 

Przedstawione badania potwierdzają, że zmiany klimatu to realne zagrożenie, które będzie miało bezpośredni wpływ na nasze codzienne życie. Rosnące koszty żywności i innych produktów spowodowane ekstremalnymi warunkami pogodowymi to tylko wierzchołek góry lodowej.

 

Wzrost temperatur i częstotliwość występowania klęsk żywiołowych, takich jak powodzie, susze czy pożary, będą miały coraz większe przełożenie na dostępność i ceny surowców, a tym samym na ceny produktów finalnych. Skutki tych zmian dotkną każdego z nas, niezależnie od miejsca zamieszkania.

 

Analitycy podkreślają, że najbardziej narażone na skutki zmian klimatu będą regiony Globalnego Południa, takie jak Afryka czy Azja. Tamtejsze gospodarki, w dużej mierze oparte na rolnictwie, będą musiały mierzyć się z coraz trudniejszymi warunkami uprawy roślin i chowu zwierząt. To z kolei przełoży się na wzrost cen żywności, a w skrajnych przypadkach nawet na jej niedobory.

 

 


Kosmiczny kataklizm, może w każdej chwili zniszczyć naszą cywilizację

Burza magnetyczna z 1859 roku, często określana mianem "Burzy Carringtona", to wydarzenie, które do dziś fascynuje naukowców zajmujących się Słońcem i jego aktywnością. Choć od tego czasu minęło już ponad 160 lat, to wnioski wyciągnięte z analizy tamtych wydarzeń wciąż mają kluczowe znaczenie dla naszego zrozumienia potencjalnych zagrożeń, jakie niesie ze sobą gwałtowna aktywność naszej gwiazdy.

 

Niedawno opublikowane badania potwierdziły, że kosmiczny kataklizm sprzed półtorej wieku był znacznie potężniejszy, niż do tej pory sądzono. Naukowcy, analizując zmiany pola magnetycznego Ziemi, doszli do wniosku, że Słońce wyemitowało wówczas w kierunku naszej planety naelektryzowany gaz i cząstki subatomowe o energii aż 10 miliardów bomb atomowych. Efekty tej potężnej burzy magnetycznej były natychmiastowe i dotkliwe - ludzie obserwowali awarie sprzętu, a nawet telegrafy działające nawet po odłączeniu od sieci.

 

Szczególnie uderzające było to, że zorza polarna, zjawisko zazwyczaj ograniczone do rejonów polarnych, pojawiła się wówczas na Kubie i Hawajach. To dobitnie pokazuje skalę tego wydarzenia, które bez wątpienia należy zaliczyć do najsilniejszych burz magnetycznych w historii obserwacji Słońca.

 

Co ciekawe, naukowcy uważają, że w przeszłości mogły mieć miejsce jeszcze potężniejsze burze, jednak brak historycznych danych uniemożliwia ich dokładne określenie. Dysponujemy jedynie stosunkowo młodymi danymi, co zmusza badaczy do ostrożnych przypuszczeń, a nie precyzyjnych obliczeń.

 

Niezależnie od tego, jaka była rzeczywista skala burzy magnetycznej z 1859 roku, jedno jest pewne - ludzkość jest dziś bardziej narażona na jej potencjalne konsekwencje niż kiedykolwiek wcześniej. Nasza cywilizacja, oparta w dużej mierze na elektronice i sieciach energetycznych, byłaby w przypadku powtórki tego scenariusza w gigantycznych tarapatach. Autorzy najnowszej publikacji na łamach "Space Weather" nie mają wątpliwości - gdyby taka burza uderzyła w 2024 roku, moglibyśmy mieć do czynienia z katastrofalnymi skutkami.

 

Powstaje zatem kluczowe pytanie - czy ludzkość jest w stanie przygotować się na powtórkę z rozrywki? Niewątpliwie można by stworzyć skuteczny system wczesnego ostrzegania, pozwalający na podjęcie odpowiednich działań w przypadku nadciągającej burzy. Wyzwaniem pozostaje jednak ochrona newralgicznej infrastruktury, takiej jak sieci energetyczne, przed zniszczeniem. Czas reakcji w obliczu takiego zagrożenia byłby bowiem niezwykle krótki.

 

Choć burza magnetyczna z 1859 roku należy do wydarzeń historycznych, to wnioski z niej płynące mają dziś fundamentalne znaczenie. Uświadamiają one, jak potężne i nieprzewidywalne mogą być gwałtowne procesy zachodzące na Słońcu, a co za tym idzie - jak krucha jest nasza cywilizacja w obliczu takich kataklizmów. Być może nadszedł czas, aby poważnie potraktować to zagrożenie i podjąć konkretne kroki w celu zwiększenia odporności naszej infrastruktury na potencjalne burze magnetyczne.

 


Odkrycie unikalnych syberyjskich wiewiórek ziemnych

Syberia, ten rozległy i surowy region Rosji, kryje w sobie wiele nieodkrytych jeszcze tajemnic. Niedawno zespół rosyjskich naukowców dokonał tu niezwykłego odkrycia, które rzuca nowe światło na historię ewolucji małych gryzoni zamieszkujących te tereny.

 

Badacze z Krasnojarskiego Centrum Naukowego Oddziału Syberyjskiego Rosyjskiej Akademii Nauk podjęli się rekonstrukcji historii rozwoju susłów polarnych. Ich ustalenia nie tylko dostarczyły cennych informacji na temat czasu powstania tych zwierząt, ale także doprowadziły do identyfikacji nowego, nieznanego dotąd gatunku wiewiórek ziemnych.

 

Zgodnie z ustaleniami naukowców, susły polarni dzielili się kiedyś na cztery główne gatunki. Miało to miejsce ponad sześć milionów lat temu, znacznie wcześniej niż dotychczas sądzono. Okazuje się, że małe gryzonie Eurazji pojawiły się na tych terenach znacznie wcześniej, niż dotychczas przypuszczano.

 

Jeszcze bardziej intrygujące są jednak odkrycia dotyczące nowego, endemicznego gatunku susłów. Te unikalne zwierzęta zamieszkują stosunkowo niewielki obszar między brzegami rzeki Ob a zachodnimi zboczami pasma Kuznetsk Alatau. Charakteryzują się ciemniejszym ubarwieniem, większymi rozmiarami i szeregiem innych cech odróżniających je od pozostałych przedstawicieli tego rodzaju.

 

Niestety, badania wykazały, że liczebność tej nowo odkrytej populacji jest bardzo niska. Co więcej, naukowcy zaobserwowali, że od końca ubiegłego wieku na Syberii dramatycznie zmniejszyła się liczebność wszystkich lokalnych populacji susłów. Niektóre gatunki tych gryzoni znajdują się obecnie na skraju wyginięcia.

 

Odkrycie nowego, endemicznego gatunku wiewiórek ziemnych na Syberii jest niezwykle istotne nie tylko z naukowego punktu widzenia. Rzuca ono również światło na kwestie ochrony tych unikatowych stworzeń i konieczność podjęcia pilnych działań, by zapobiec ich całkowitemu zniknięciu z naszej planety.

 

Badania nad historią ewolucji susłów polarnych dostarczyły wielu cennych informacji, które mogą pomóc zrozumieć mechanizmy adaptacji tych zwierząt do surowych warunków środowiska syberyjskiego. Odkrycie nowego gatunku to zaś niezwykłe osiągnięcie, dowodzące, że nawet w dobrze poznanych regionach wciąż czekają na nas fascynujące niespodzianki.

 

Być może dalsze eksploracje tych terenów pozwolą na odkrycie kolejnych unikatowych form życia, o których istnieniu nawet nie mamy pojęcia. Syberia to bowiem prawdziwa skarbnica bioróżnorodności, która wciąż kryje wiele nieodkrytych tajemnic. Ważne, by chronić ten cenny ekosystem i chronić zagrożone gatunki, zanim bezpowrotnie znikną z naszej planety.

 


Sztuczna inteligencja do testowania grzybów jest zabójcza

Eksperci ostrzegają, że nie należy wykorzystywać sztucznej inteligencji (AI) do ustalania, czy grzyby zbierane na dziko są jadalne, czy też nie.

 

Public Citizen to amerykańska organizacja non-profit działająca na rzecz konsumentów. W swoim nowym raporcie eksperci przestrzegli zbieraczy grzybów, zwłaszcza niedoświadczonych, przed korzystaniem z narzędzi do rozpoznawania grzybów jadalnych wspomaganych sztuczną inteligencją. I wyjaśnili, że zbieranie grzybów to zajęcie ryzykowne i wymagające odpowiednich umiejętności. Ostrzeżenie zostało przygotowane i opublikowane w związku z niedawnym wzrostem zainteresowania opinii publicznej oprogramowaniem i aplikacjami do identyfikacji grzybów. Eksperci wyselekcjonowali statystyki wyszukiwanych haseł na podstawie danych z aplikacji internetowej Google Trends.

 

Dyrektor ds. badań obywatelskich Rick Claypool zgadza się, że aplikacje AI to dość potężne narzędzia do generowania wiedzy, w tym na temat flory i fauny. Są jednak wyjątki, a wśród nich są grzyby, bo samo ich sfotografowanie i przepuszczenie zdjęcia przez specjalistyczne aplikacje nie wystarczy.

 

Claypool wyjaśnił, że podczas tzw. cichego polowania doświadczonym grzybiarzom pomaga węch, dotyk, a czasem nawet smak napotkanych grzybów. Jeszcze lepiej zbierać grzyby w znanych miejscach, znając lokalne warunki, gdyż w różnych częściach Ziemi rosną podobne, ale różne gatunki.

 

Claypool zauważył, że zdjęcie kapelusza nie wystarczy, aby z całkowitą pewnością określić rodzaj grzyba. Ważne jest również to, co grzyb ma pod kapeluszem, jaki jest stosunek szerokości kapelusza do grubości i podstawy nogi. Ponadto grzybiarze powinni zwrócić uwagę na to, gdzie grzyb rośnie, na przykład na ziemi lub na drzewie. A jeśli jest na drzewie, warto znać także jego rodzaj.

 

W Ameryce Północnej występuje ponad 5 tys. gatunków dość dużych grzybów, a o większości z nich nadal wiele nie wiadomo, ale wiadomo na pewno, że 75 gatunków powoduje zatrucia, w tym śmiertelne. Kolejnych 36 jest poważnie podejrzanych, ponieważ uważa się, że są trujące. Wiadomo również, że 40 gatunków jest warunkowo jadalnych, ponieważ są trujące na surowo, ale są jadalne po ugotowaniu.

 

Jeszcze kilka ważnych faktów. Od 1999 do 2016 roku w samych Stanach Zjednoczonych zarejestrowano co najmniej 133 tysiące zatruć grzybami, z czego 704 poważnie zaszkodziło zdrowiu, a 52 zakończyły się śmiercią.

 

Claypool powiedział, że dokładność oprogramowania do rozpoznawania grzybów została przeanalizowana pod kątem bezpieczeństwa, a wyniki były alarmujące. Dlatego w 2022 r. australijscy eksperci ds. toksyn zbadali trzy takie zastosowania sztucznej inteligencji. Okazało się, że prawidłowo rozpoznali grzyby tylko w 50% przypadków. W przeciwnym razie trujące były wielokrotnie mylone z jadalnymi grzybami.

 

Jednakże niedociągnięcia AI w określaniu bezpieczeństwa grzybów nie ograniczają się do zastosowań. Claypool poinformował, że w 2023 r. rynek Amazonu był pełen książek dla zbieraczy grzybów, wymyślonych przez sztuczną inteligencję. Wiele z nich zawierało niebezpieczną dezinformację. Co więcej, w wielu książkach o grzybach na Amazonie nie było nawet danych, że zostały wygenerowane przez sztuczną inteligencję, a nie opracowane przez prawdziwego eksperta. Wywołało to skandal, gdyż o niebezpiecznej literaturze donosiło ponad 400 mediów.

 

Tym samym przedstawiciele Nowojorskiego Towarzystwa Mikologicznego, czyli specjalizującego się w badaniu grzybów, zauważyli, że Amazon i inne platformy handlowe zalewają generowane przez sztuczną inteligencję książki o poszukiwaniu i rozpoznawaniu roślin jadalnych. I poprosili społeczeństwo, aby kupowało literaturę wyłącznie od znanych autorów i doświadczonych zbieraczy grzybów, w przeciwnym razie błąd może kosztować życie.

 

Według Public Citizen niepokój budzi także fakt, że sztuczna inteligencja łączy się z wyszukiwarką internetową. Na przykład w zeszłym roku Google przekazał użytkownikom instrukcje krok po kroku dotyczące przygotowania Amanita ocreata, śmiertelnie trującego grzyba z rodziny muchomorów. Wiadomo też, że sama generatywna sztuczna inteligencja „maluje” niedokładne obrazy niektórych rodzajów grzybów, tym samym dezorientując także niedoświadczonych grzybiarzy.

 

Claypool dodał, że identyfikacja grzybów jadalnych to tylko jeden z wielu przykładów sytuacji, w których nadmierne zaufanie do technologii sztucznej inteligencji jest zagrożone. A wszystko dlatego, że nie udało się jeszcze zautomatyzować badania poszczególnych obiektów. Czy to w ogóle jest możliwe?

 


Amerykański lądownik nie przetrwał księżycowej nocy

Choć z dumą oczekiwano na powrót Amerykanów na Księżyc, to niedawna misja bezzałogowego lądownika Nova-C (Odyssey) zakończyła się niepowodzeniem. Firma Intuitive Machines, odpowiedzialna za tę ekspedycję, musiała z żalem ogłosić, że ich statek kosmiczny „zapadł w sen na zawsze" i nie przetrwał księżycowej nocy.

 

Odyssey, będący pierwszym prywatnym statkiem kosmicznym, który wylądował na Księżycu, miał za zadanie przetestować możliwości dostarczania ładunku na naszego naturalnego satelitę. Niestety, już od samego początku misja borykała się z licznymi problemami technicznymi.

 

Podczas tygodniowej podróży na Księżyc lądownik musiał zmagać się z usterkami laserów pozycjonujących, co zmusiło inżynierów do zastosowania eksperymentalnej technologii NASA, aby zapewnić bezpieczne lądowanie. Gdy Odyssey w końcu dotarł na powierzchnię Księżyca, natychmiast przewrócił się na bok, prawdopodobnie potykając się o skałę.

 

Mimo tych przeciwności, lądownik zdołał przeprowadzić kilka testów i przesłać na Ziemię zdjęcia. Jednak jego los został przypieczętowany, gdy nadeszła księżycowa noc. Odyssey, który nie został zaprojektowany, aby wytrzymać ekstremalne warunki temperaturowe, został wprowadzony w tryb uśpienia. Niestety, system zasilania modułu okazał się niewystarczający, by przetrwać tę trudną próbę, i 23 marca Intuitive Machines ogłosiło, że lądownik nie będzie już w stanie nawiązać kontaktu z Ziemią.

 

Niepowodzenie tej misji jest szczególnie bolesne, biorąc pod uwagę, że była to pierwsza próba lądowania amerykańskiego statku kosmicznego na Księżycu od czasu załogowej misji Apollo 17 w 1972 roku. Miała ona być również dowodem na to, że prywatni wykonawcy mogą skutecznie dostarczać ładunki na Księżyc, co jest kluczowe dla planów NASA dotyczących powrotu człowieka na naszego naturalnego satelitę.

 

Niestety, zamiast tego, Odyssey dołączył do innego prywatnego lądownika księżycowego, Astrobotic's Peregrine, który również nie przetrwał swojej misji, kończąc w atmosferze ziemskiej. Jak podsumowuje publikacja The Byte, „Gdy to wszystko zsumujesz, nie będzie to ładny obraz" – dwie misje księżycowe NASA miały pokazać, że prywatni kontrahenci są gotowi do podjęcia tego wyzwania, jednak zamiast tego jedna została całkowicie zniszczona, a druga „upadła i umarła".

 

Choć to niepowodzenie jest rozczarowujące, nie można powiedzieć, że misja Odyssey była całkowitą porażką. Zdobyte doświadczenia i zebrane dane z tej ekspedycji z pewnością pomogą w doskonaleniu przyszłych prywatnych misji księżycowych. Ponadto, fakt, że firma Intuitive Machines była w stanie doprowadzić lądownik do bezpiecznego lądowania na Księżycu, jest już samym w sobie dużym osiągnięciem.

 

Pomimo tych niepowodzeń, NASA wciąż mocno promuje partnerstwa publiczno-prywatne w ramach swojego programu Artemis, mającego na celu powrót człowieka na Księżyc. Oczekuje się, że kolejne misje, zarówno rządowe, jak i prywatne, będą w stanie przezwyciężyć napotkane trudności i doprowadzić do trwałej obecności ludzi na naszym naturalnym satelicie.


Przełomowa technologia fotonowa – czy to nowa era sztucznej inteligencji?

W obliczu nieustannego rozwoju sztucznej inteligencji (SI), tradycyjne krzemowe układy scalone z tranzystorami zaczynają stanowić poważne ograniczenie. Zapotrzebowanie na coraz większą moc obliczeniową do trenowania zaawansowanych modeli SI jest wręcz gigantyczne, co zmusza naukowców i inżynierów do poszukiwania alternatywnych rozwiązań. Niedawno zaprezentowano rewolucyjny projekt procesora, który może odmienić oblicze szkolenia SI – procesor oparty na fotonach.

 

W przeciwieństwie do konwencjonalnych układów, w których przepływ elektronów (energia elektryczna) odpowiada za wykonywanie obliczeń, nowa technologia wykorzystuje potęgę światła. Fotony, a więc podstawowe jednostki światła, posiadają szereg zalet w porównaniu do elektronów. Podróżują one szybciej, są bezmasowe i nie generują ciepła z oporu elektrycznego. Te unikalne właściwości sprawiają, że procesory fotoniczne mogą być znacznie mniej energochłonne i zdolne do przetwarzania informacji z prędkościami niedostępnymi dla ich elektronicznych odpowiedników.

 

Kluczową zaletą tej technologii jest jej potencjał do przyspieszenia procesu szkolenia modeli SI, czyniąc go szybszym i bardziej energooszczędnym. Obecnie, wydajność obliczeniowa wymagana do wyszkolenia konkretnych modeli SI jest ogromna, a tradycyjne układy krzemowe z tranzystorami stają się coraz bardziej niewystarczające. Procesory fotoniczne oferują rozwiązanie tych problemów, otwierając nowe możliwości dla rozwoju coraz bardziej zaawansowanych systemów SI.

 

Jednym z głównych wyzwań w rozwoju sztucznej inteligencji jest konieczność przetwarzania ogromnych ilości danych w trakcie trenowania modeli. Konwencjonalne układy scalone z tranzystorami zaczynają być wydajnościowo niewystarczające, a ich energochłonność stanowi poważne ograniczenie. Procesory fotoniczne, dzięki swoim unikatowym właściwościom, mogą znacząco poprawić ten aspekt, umożliwiając szybsze i bardziej efektywne energetycznie szkolenie modeli SI.

 

Kluczową zaletą technologii fotonowej jest jej potencjał do zwiększenia prędkości przetwarzania informacji. Fotony, w przeciwieństwie do elektronów, nie są ograniczane przez opór elektryczny i mogą przemieszczać się z niezwykłą szybkością. Oznacza to, że procesory fotoniczne mogą wykonywać obliczenia z prędkościami niedostępnymi dla tradycyjnych układów krzemowych. Ta cecha jest szczególnie istotna w kontekście sztucznej inteligencji, gdzie często wymagane są niewyobrażalnie szybkie operacje na ogromnych zbiorach danych.

 

Dodatkowo, procesory fotoniczne charakteryzują się znacznie niższą energochłonnością w porównaniu do ich elektronicznych odpowiedników. Ponieważ fotony nie generują ciepła z oporu elektrycznego, energia zużywana przez te układy jest znacznie mniejsza. To kluczowe w dobie rosnącego zapotrzebowania na moc obliczeniową do trenowania coraz bardziej zaawansowanych modeli SI, które często wymagają ogromnej ilości energii.

 

Warto podkreślić, że technologia fotonowa nie tylko przyspieszy proces szkolenia modeli SI, ale także może przyczynić się do zwiększenia ich wydajności. Szybsze i bardziej energooszczędne przetwarzanie danych może pozwolić na trenowanie modeli o większej złożoności, otwierając drzwi do jeszcze bardziej zaawansowanych i skutecznych systemów SI.

 

Choć technologia fotonowa jest wciąż w fazie intensywnego rozwoju, już teraz widać jej ogromny potencjał. Naukowcy i inżynierowie na całym świecie pracują nad udoskonaleniem tej przełomowej koncepcji, aby przygotować ją do zastosowań komercyjnych. Oczekuje się, że w nadchodzących latach będziemy świadkami coraz większego zastosowania procesorów fotonicznych w różnych dziedzinach, od centrów przetwarzania danych po urządzenia konsumenckie.

 

Technologia fotonowa stanowi obiecującą alternatywę dla tradycyjnych krzemowych układów scalonych z tranzystorami. Jej unikalne właściwości, takie jak wysoka prędkość przetwarzania informacji oraz niska energochłonność, czynią ją idealnym rozwiązaniem dla coraz bardziej wymagającego środowiska sztucznej inteligencji. Nadejście ery procesorów fotonicznych może zrewolucjonizować sposób, w jaki projektujemy i wdrażamy systemy SI, otwierając drzwi do nowej, bardziej wydajnej i energooszczędnej przyszłości.