Przejdź do treści

Puszka Pandory

Ko­niec nie jest bliski, ale może taki być, o ile nie po­wstrzy­mamy na­szej tech­no­lo­gicznej po­my­sło­wości – ostrze­gają bry­tyjscy na­ukowcy z Uni­ver­sity of Cam­bridge: pro­fesor ko­smo­logii i astro­fi­zyki Martin Rees, fi­lozof Huw Price oraz wy­na­lazca Skype – Jaan Tallinn.

Za­pro­po­no­wali oni stwo­rzenie cen­trum – Centre for the Study of Exi­sten­tial Risk (CSER) – które bę­dzie się zaj­mować wy­na­laz­kami tech­no­lo­gicz­nymi, mo­gą­cymi za­grozić ist­nieniu ludz­kości. Do tych za­grożeń mogą – ich zda­niem – na­leżeć ro­boty, które wy­mkną się spod kon­troli, wojna ją­drowa, plagi zro­dzone w la­bo­ra­to­riach oraz znisz­czenia z po­wodu zmian kli­matu, spo­wo­do­wa­nych nisz­czą­cymi dzia­ła­niami człowieka.

Mó­wimy o za­gro­żeniu na­szego ist­nienia, które swój po­czątek bierze z ak­tyw­ności ludzi – tłu­maczy Rees.

Astro­fizyk za­uważa, że zbytnio sku­piamy się na drob­nych, ale po­wszech­nych ro­dza­jach ry­zyka, jak np. śla­dowe stę­żenia skażeń w żyw­ności. Jed­no­cze­śnie za mało in­te­re­sują nas po­tężne za­gro­żenia, które mogą do­pro­wa­dzić do na­szej zagłady.

Nie dość wiele my­ślimy o wy­da­rze­niach, do któ­rych może dojść z nie­wielkim praw­do­po­do­bień­stwem, ale które mogą mieć po­tężne skutki. Nawet jedno takie wy­da­rzenie, to o jedno za dużo – pod­kreśla Rees. – Kryzys fi­nan­sowy jest do­brym przy­kładem na coś, czego nie prze­wi­dziano. Ale prze­cież mogą na­stąpić i inne wy­da­rzenia, do któ­rych wcze­śniej nie do­szło, ale które na­leży prze­wi­dzieć – podkreśla.

CSER mia­łoby uprze­dzać za­gro­żenie dzięki ba­da­niom, jak takie ry­zyko prze­wi­dzieć i – w razie czego – jak je kon­tro­lować. „Mu­simy na po­ważnie brać moż­li­wość, że w związku ze sztuczną in­te­li­gencją może kiedyś dojść do otwarcia „puszki Pan­dory”. Jeśli prze­ga­pimy ten mo­ment, może dojść do ka­ta­strofy” – do­daje Price.

Jego zda­niem taki kry­tyczny mo­ment może na­stąpić, kiedy kom­pu­tery za­czną same pisać sobie pro­gramy. „Nie od rzeczy wy­daje się prze­wi­dywać, że w pewnym mo­mencie obec­nego albo przy­szłego wieku in­te­li­gencja ode­rwie się od ogra­ni­czeń, jakie dziś sta­nowi dla niej bio­logia” – po­wie­dział Price. W miarę, jak ro­boty i kom­pu­tery staną się in­te­li­gent­niejsze od nas, mo­żemy się zna­leźć na łasce „ma­szyn, które nie są zło­śliwe, ale ma­szyn, któ­rych in­te­resy nie uwzględ­niają nas samych”.

Czeka nas świat rodem z Ter­mi­na­tora? To moż­liwe – ostrze­gają naukowcy.

Powiązane materiały: