Przejdź do treści

Puszka Pandory

Ko­niec nie jest bli­ski, ale może taki być, o ile nie po­wstrzy­mamy na­szej tech­no­lo­gicz­nej po­my­sło­wo­ści — ostrze­gają bry­tyj­scy na­ukowcy z Uni­ver­sity of Cam­bridge: pro­fe­sor ko­smo­lo­gii i astro­fi­zyki Mar­tin Rees, fi­lo­zof Huw Price oraz wy­na­lazca Skype — Jaan Tal­linn.

Za­pro­po­no­wali oni stwo­rze­nie cen­trum — Cen­tre for the Study of Exi­sten­tial Risk (CSER) — które bę­dzie się zaj­mo­wać wy­na­laz­kami tech­no­lo­gicz­nymi, mo­gą­cymi za­gro­zić ist­nie­niu ludz­ko­ści. Do tych za­gro­żeń mogą — ich zda­niem — na­le­żeć ro­boty, które wy­mkną się spod kon­troli, wojna ją­drowa, plagi zro­dzone w la­bo­ra­to­riach oraz znisz­cze­nia z po­wodu zmian kli­matu, spo­wo­do­wa­nych nisz­czą­cymi dzia­ła­niami czło­wieka.

Mó­wimy o za­gro­że­niu na­szego ist­nie­nia, które swój po­czą­tek bie­rze z ak­tyw­no­ści lu­dzi — tłu­ma­czy Rees.

Astro­fi­zyk za­uważa, że zbyt­nio sku­piamy się na drob­nych, ale po­wszech­nych ro­dza­jach ry­zyka, jak np. śla­dowe stę­że­nia ska­żeń w żyw­no­ści. Jed­no­cze­śnie za mało in­te­re­sują nas po­tężne za­gro­że­nia, które mogą do­pro­wa­dzić do na­szej za­głady.

Nie dość wiele my­ślimy o wy­da­rze­niach, do któ­rych może dojść z nie­wiel­kim praw­do­po­do­bień­stwem, ale które mogą mieć po­tężne skutki. Na­wet jedno ta­kie wy­da­rze­nie, to o jedno za dużo — pod­kre­śla Rees. — Kry­zys fi­nan­sowy jest do­brym przy­kła­dem na coś, czego nie prze­wi­dziano. Ale prze­cież mogą na­stą­pić i inne wy­da­rze­nia, do któ­rych wcze­śniej nie do­szło, ale które na­leży prze­wi­dzieć — pod­kre­śla.

CSER mia­łoby uprze­dzać za­gro­że­nie dzięki ba­da­niom, jak ta­kie ry­zyko prze­wi­dzieć i — w ra­zie czego — jak je kon­tro­lo­wać. „Mu­simy na po­waż­nie brać moż­li­wość, że w związku ze sztuczną in­te­li­gen­cją może kie­dyś dojść do otwar­cia „puszki Pan­dory”. Je­śli prze­ga­pimy ten mo­ment, może dojść do ka­ta­strofy” — do­daje Price.

Jego zda­niem taki kry­tyczny mo­ment może na­stą­pić, kiedy kom­pu­tery za­czną same pi­sać so­bie pro­gramy. „Nie od rze­czy wy­daje się prze­wi­dy­wać, że w pew­nym mo­men­cie obec­nego albo przy­szłego wieku in­te­li­gen­cja ode­rwie się od ogra­ni­czeń, ja­kie dziś sta­nowi dla niej bio­lo­gia” — po­wie­dział Price. W miarę, jak ro­boty i kom­pu­tery staną się in­te­li­gent­niej­sze od nas, mo­żemy się zna­leźć na ła­sce „ma­szyn, które nie są zło­śliwe, ale ma­szyn, któ­rych in­te­resy nie uwzględ­niają nas sa­mych”.

Czeka nas świat ro­dem z Ter­mi­na­tora? To moż­liwe – ostrze­gają na­ukowcy.

Powiązane materiały: