#post-id: 8285-13-00
#original-date: 2.04.2023 Sun
#original-time: 1:00 PM
#original-day: 8285
#original-host: WinXP Home SP3 (Build 2600)

Очередная пугалка про ИИ.

https://baza.io/posts/7430dbf1-bd3e-4780-9919-4b727baa3f5f

Разумеется, опасность есть всегда, особенно если вспомнить, как разработчики любят сами себе создавать проблемы, с которыми потом долгие годы борются. Да, я про ActiveX и флэш с броузере, которые побеждали очень долго и с кучей фэйлов.

Но мне всё же интересно: почему что ни прогноз, то каждый раз ИИ обязательно должен уничтожить человечество? Откуда такая фиксация на этом сценарии? Авторы «Терминатора» чтоли пересмотрелись? Или собственные тараканы проецируют? Или это такая вариация на тему «Если к власти придёт ИИ, то нас повесят на первом же столбе»?

Да, и почему всегда это подкрепляется аргументами «Я думаю», «Мне кажется» и «Я уверен»?

#upd(2.04.2023 - 2:22 PM):

Оригинал статьи:

https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/