Борбата с една "опасна" идеология в дебата за ИИ

Любимата философия на Силициевата долина - дългосрочният подход - допринесе за това дебатът за изкуствения интелект да бъде подчинен на идеята за изчезването на хората.

Все повече критици обаче предупреждават, че тази философия е опасна и че манията за изчезване отклонява вниманието от реалните проблеми, свързани с ИИ, като кражбата на данни и пристрастните алгоритми.

Авторът Емил Торес, бивш дългогодишен специалист, превърнал се в критик на движението, заяви пред АФП, че философията почива на принципи, използвани в миналото за оправдаване на масови убийства и геноцид.

Въпреки това движението и свързаните с него идеологии като трансхуманизъм и ефективен алтруизъм имат огромно влияние в университетите от Оксфорд до Станфорд и в целия технологичен сектор.

Рискови капиталисти като Питър Тийл и Марк Андресен са инвестирали в компании за удължаване на живота и други домашни проекти, свързани с движението.

Илон Мъск и Сам Алтман от OpenAI са подписали отворени писма, в които предупреждават, че изкуственият интелект може да накара човечеството да изчезне - въпреки че имат изгода да твърдят, че само техните продукти могат да ни спасят.

В крайна сметка критиците твърдят, че това маргинално движение има твърде голямо влияние върху обществените дебати за бъдещето на човечеството.

Привържениците на дългосрочната перспектива смятат, че сме длъжни да се опитаме да постигнем най-добрите резултати за най-голям брой хора.

Това не е по-различно от либералите от 19-ти век, но дългосрочните активисти имат предвид много по-дълъг период от време.

Те гледат в далечното бъдеще и виждат трилиони и трилиони хора, които се носят из космоса и колонизират нови светове.

Те твърдят, че към всеки от тези бъдещи хора имаме същия дълг, както към всеки жив човек днес.

И тъй като те са толкова много, имат много по-голяма тежест от днешните екземпляри.

Подобно мислене прави идеологията "наистина опасна", казва Торес, автор на "Изчезването на човека: История на науката и етиката на унищожението".

"Всеки път, когато имате утопична визия за бъдещето, белязана от почти безкрайно количество ценности, и я комбинирате с един вид утилитарен начин на морално мислене, при който целта може да оправдае средствата, това ще бъде опасно", казва Торес.

Ако една свръхинтелигентна машина може да е на път да се появи на бял свят и да има потенциала да унищожи човечеството, дългосрочно настроените хора със сигурност ще се противопоставят на това независимо от последствията.

Когато през март потребител на Twitter, платформата, известна сега като X, попита колко души могат да умрат, за да се спре това, идеологът на лонтермистите Елиезер Юдковски отговори, че е необходимо само да има достатъчно хора, "за да се формира жизнеспособно репродуктивно население".

"Докато това е вярно, все още има шанс да достигнем звездите някой ден", пише той, макар че по-късно изтрива съобщението.

Дългосрочният подход е резултат от работата на шведския философ Ник Бостром през 90-те години на миналия век, посветена на екзистенциалния риск и трансхуманизма - идеята, че хората могат да бъдат подобрени чрез технологии.

Академикът Тимнит Гебру посочва, че трансхуманизмът от самото начало е свързан с евгениката.

Британският биолог Джулиан Хъксли, който въвежда термина трансхуманизъм, е бил и председател на Британското дружество по евгеника през 50-те и 60-те години на ХХ век.

"Дългосрочният хуманизъм е евгеника под друго име", пише Гебру.

Бостром отдавна се сблъсква с обвинения в подкрепа на евгениката, след като изброява като екзистенциален риск "дисгенетичния натиск", който по същество се изразява в това, че по-малко интелигентните хора се размножават по-бързо от по-интелигентните си връстници.

Философът, който ръководи Института за бъдещето на живота към Оксфордския университет, се извини през януари, след като призна, че през 90-те години е писал расистки постове в интернет форум.

"Подкрепям ли евгениката? Не, не в общоприетия смисъл на този термин", пише той в извинението си и посочва, че той е бил използван, за да оправдае "някои от най-ужасяващите зверства през миналия век".

Въпреки тези проблеми дългогодишни изследователи като Юдковски, който е отпаднал от гимназията, известен с това, че пише фенфикшън за Хари Потър и пропагандира полиаморията, продължават да бъдат приветствани.

Алтман му приписва заслугата за финансирането на OpenAI, а през февруари предложи той да получи Нобелова награда за мир.

Но Гебру, Торес и много други се опитват да се фокусират върху вреди като кражбата на произведения на художници, пристрастията и концентрацията на богатство в ръцете на няколко корпорации.

Торес казва, че макар да има истински вярващи като Юдковски, голяма част от дебатите около изчезването са мотивирани от печалбата.

"Говоренето за изчезване на човечеството, за истинско апокалиптично събитие, при което всички умират, е много по-сензационно и увлекателно от това кенийските работници да получават по 1,32 долара на час или художниците и писателите да бъдат експлоатирани", казаха те. /БГНЕС

Последвайте ни и в google news бутон