Исследователь ИИ и один из ключевых вдохновителей создания OpenAI Элиезер Юдковский - о том, что искусственный интеллект погубит человечество:
Если кто-то где-то создаст сверхинтеллект, все люди погибнут. Это не то же самое, что создать одну атомную бомбу — та хоть и вызовет международный переполох, но это не будет концом света. Нельзя допустить, чтобы кто-либо где-либо сделал аналог ядерной бомбы и взорвал его хотя бы один раз. Нельзя позволить, чтобы кто-то создал искусственный сверхинтеллект, иначе мы все покойники.
Среди мер, которые можно принять, — собрать все используемые для обучения ИИ чипы, которые сложны в изготовлении и дороги в эксплуатации. Все они должны находиться под международным контролем. Нужно следить, чтобы люди не развивали возможности ИИ дальше.
А если какая-то страна-изгой соберет кучу чипов и попытается использовать их без международного надзора, нужно чётко и дипломатично дать понять: «Прекратите это, иначе ради наших жизней и жизней наших детей мы уничтожим ваш дата-центр любым возможным способом». И если они не остановятся, нужно просто взять и сбросить противобункерную бомбу на их дата-центр. На самом деле, это стандартная практика: что-то вроде режима ядерного нераспространения, только чуть серьёзнее.


































































