Koniec nie jest bliski, ale może taki być, o ile nie powstrzymamy naszej technologicznej pomysłowości — ostrzegają brytyjscy naukowcy z University of Cambridge: profesor kosmologii i astrofizyki Martin Rees, filozof Huw Price oraz wynalazca Skype — Jaan Tallinn.
Zaproponowali oni stworzenie centrum — Centre for the Study of Existential Risk (CSER) — które będzie się zajmować wynalazkami technologicznymi, mogącymi zagrozić istnieniu ludzkości. Do tych zagrożeń mogą — ich zdaniem — należeć roboty, które wymkną się spod kontroli, wojna jądrowa, plagi zrodzone w laboratoriach oraz zniszczenia z powodu zmian klimatu, spowodowanych niszczącymi działaniami człowieka.
Mówimy o zagrożeniu naszego istnienia, które swój początek bierze z aktywności ludzi — tłumaczy Rees.
Astrofizyk zauważa, że zbytnio skupiamy się na drobnych, ale powszechnych rodzajach ryzyka, jak np. śladowe stężenia skażeń w żywności. Jednocześnie za mało interesują nas potężne zagrożenia, które mogą doprowadzić do naszej zagłady.
Nie dość wiele myślimy o wydarzeniach, do których może dojść z niewielkim prawdopodobieństwem, ale które mogą mieć potężne skutki. Nawet jedno takie wydarzenie, to o jedno za dużo — podkreśla Rees. — Kryzys finansowy jest dobrym przykładem na coś, czego nie przewidziano. Ale przecież mogą nastąpić i inne wydarzenia, do których wcześniej nie doszło, ale które należy przewidzieć — podkreśla.
CSER miałoby uprzedzać zagrożenie dzięki badaniom, jak takie ryzyko przewidzieć i — w razie czego — jak je kontrolować. „Musimy na poważnie brać możliwość, że w związku ze sztuczną inteligencją może kiedyś dojść do otwarcia „puszki Pandory”. Jeśli przegapimy ten moment, może dojść do katastrofy” — dodaje Price.
Jego zdaniem taki krytyczny moment może nastąpić, kiedy komputery zaczną same pisać sobie programy. „Nie od rzeczy wydaje się przewidywać, że w pewnym momencie obecnego albo przyszłego wieku inteligencja oderwie się od ograniczeń, jakie dziś stanowi dla niej biologia” — powiedział Price. W miarę, jak roboty i komputery staną się inteligentniejsze od nas, możemy się znaleźć na łasce „maszyn, które nie są złośliwe, ale maszyn, których interesy nie uwzględniają nas samych”.
Czeka nas świat rodem z Terminatora? To możliwe – ostrzegają naukowcy.