roni_elman (roni_elman) wrote,
roni_elman
roni_elman

AI: Опасна ли нам сингулярность?

Сергей Николенко – директор по науке в Neuromation




В последнее время рассуждения об искусственном интеллекте (AI) в популярных изданиях начинают принимать всё более алармистский оборот. Одни пытаются доказать, что AI якобы вытеснит с рынка 90% людей, обрекая их на безработицу и прозябание. Другие идут дальше и задаются вопросом: не создаёт ли человечество себе в лице искусственного интеллекта экзистенциальный риск, с которым не сравнится никакая водородная бомба? Давайте попробуем разобраться.



Сторонники рассматривать AI как экзистенциальный риск обычно имеют в виду сценарий «взрыва интеллекта», при котором сильный AI получает возможность улучшать себя (например, переписывать части программного кода), тем самым становясь ещё «умнее», что приводит к возможности более радикальных улучшений и так далее. Подробней об этом можно прочесть, например, в AI-Foom debate между Робином Хансоном и Элиэзером Юдковским, которые обсуждают в точности этот сценарий. Основная опасность здесь заключается в том, что задачи «взорвавшегося» искусственного интеллекта могут не соответствовать целям и задачам человечества. Избитый в этой теме пример: если «целью жизни» сильного AI было вполне невинное производство канцелярских скрепок, то через неделю-другую после «взрыва» Земля вполне может оказаться полностью покрыта автоматизированными фабриками двух типов – производящими скрепки и производящими космические корабли, которые позволят начать производить скрепки на других планетах…
https://philologist.livejournal.com/9877621.html
( Читать дальше... )

Tags: люди, наука, общество
Subscribe
  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your reply will be screened

    Your IP address will be recorded 

  • 0 comments