Теги: это интересно

traveller, 08.02.2016 (8 лет назад)

Прочитал в ЖЖ заметку "Когда машины будут думать за нас"? Аргумент "Однажды перегревшийся компьютер, управляющий автомобилем, собъёт на переходе старушку, и тогда разработчики, и чиновники пойдут под суд, поэтому такого никогда не будет" - как-то не очень убедителен. При нынешней дешевизне электроники сделать разумное дублирование, или хотя бы просто внешний контроль над управляющей системой и её блокировку (остановку автомобиля) если что-то в ней вызвало подозрения - совсем несложная задача.

Кроме того, достаточно вспомнить про самолёты. Современный автопилот почти всегда большую часть полёта управляет дальнемагистральными пассажирскими лайнерами, и даже в состоянии в автоматическом режиме произвести посадку в оборудованном аэропорту - и что-то никто не боится ответственности. Поезда метро в Куала Лумпуре давным-давно ездят сами, а пассажиры могут смотреть на тоннель в переднее окно. Зато один из комментариев показался интересным:

ссылка
vakhnenko >Честно вам сказать, в феврале 2016 года меня эта перспектива совершенно не тревожит и не пугает.

Зря не пугает. Хокинга, например, пугает: искусственный интеллект - угроза человечеству. Сам я на эту тему в позапрошлом году читал довольно интересную книгу "Our Final Invention: Artificial Intelligence and the End of the Human Era " за авторством Джеймса Баррата.

Очень кратко перечислю основные тезисы из книги:

1) Согласно опросам экспертов в области ИИ (программисты, нейрофизиологи, робоинженеры), 10% из них считают что сравнимый с человеческим ИИ будет готов к 2030 году, 50% считают что он будет готов к 2050 году, более 90% считают что он будет готов к концу века. Добавлю от себя, ибо я тоже какой-никакой инженер-нейрофизиолог по образованию: да, в создании ИИ нет абсолютно ничего невозможного; нет, не вижу принципиальных препятствий в создании оного до конца этого века.

2) В ИИ вбухиваются дикие деньги: IBM (с их эмулятором мозга SyNAPSE), Гугль с его проектом Google X, DAPRA, и т.д. В вышеуказанной книге примеров ИИ-проектов приведено много больше, я привожу то что запомнилось. Причем многие проекты по созданию ИИ засекречены -- скажем на той же Уолл-стрит, где компьютерные алгоритмы уже проводят более трех четвертей сделок без всякого участия человека, и где малейшее преимущество в скорости обработки информации или в качестве автоматических принятий решений оборачивается гигантскими прибылями. Для понимания тамошних масштабов: одна из компаний проложила за свои деньги новый оптоволоконный кабель длиной 1325км между Чикаго и Нью-Йорком лишь для того, чтобы урезать скорость прохождения пакета данных туда-обратно с 14.5 до 13.1 миллисекунд. Работы над ИИ наверняка идут полным ходом в Китае (да и в дюжине других стран): государство которое первым создаст ИИ получит гигантское преимущество перед остальными, начиная от непомерно возросших возможностей в области кибершпионажа и кибератак, и заканчивая конкурентноспособностью высокотехнологичных товаров. Как и в годы ядерной гонки, тут одним из основных мотивов является страх перед предполагаемым действиями соперников, страх оказаться безоружным.

3) Нет нужды писать ИИ с нуля, строчка за строчкой. Самоулучшающиеся (т.н. генетические/эволюционные) программы существуют уже довольно давно. Грубо говоря, человек ставит задачу, и программа уже сама переписывает свой код дабы та задача была решена. Например вопросно-ответный ИИ Ватсон был создан как раз таким методом. В феврале 2011 года Ватсон принял участие в телешоу Jeopardy! (российский аналог -- "Своя игра"). Его соперниками были Брэд Раттер -- обладатель самого большого выигрыша в программе, и Кен Дженнингс -- рекордсмен по длительности беспроигрышной серии. Комьютер одержал победу. Сейчас его пытаются начать использовать в роли врача-диагноста: пациенты могут позвонить по указанному номеру, поговорить с Ватсоном, и тот выпишет им некий курс лечения, или даст направление к другим специалистам.

4) При достижении условного уровня человеческого интеллекта, последующие циклы самоулучшения могут начать сокращаться со все большей скоростью. Рост мощи ИИ с человеческого уровня до уровня на порядки превосходящего интеллект даже самого гениального человека может занять не так уж много времени, например несколько месяцев -- оставив людям очень мало возможностей успеть понять, что именно происходит, и должным образом отреагировать.

5) В силу природы самоулучшающихся алгоритмов, их создателям зачастую трудно понять как именно работает программа. Когда вышеупомянутый Ватсон пару раз таки ошибался во время телепрограммы, его создатели не знали почему это происходило -- сложность программы уже превосходит их понимание.

6) ИИ ни в коем случае не будет антропоморфным (наделенным человеческими качествами) -- в этом заключается основная ошибка всяческих художественных произведений на тему, да и мышление его будет сильно отличаться от нашего. Но это и неважно, ибо разный подход к мышлению отнюдь не помешал Deep Blue выиграть в шахматы у Каспарова, а Ватсону победить человеческих чемпионов в аналоге "Своей игры". При этом в настоящий момент практически никто не задумывается о том, чтобы сделать ИИ дружественно настроенным по отношению к людям (а вот разрабатывать десятки разновидностей полностью автономных роботов поля боя это пожалуйста). А ведь дружественность должна быть заложена в ИИ изначально, еще когда закладываются основы эволюционной программы, потом уже будет поздно, см. пункт 5. И сформулировать эту дружелюбность крайне трудно, практически невозможно. Забудьте о трех законах роботехники Азимова -- они просто нужны для создания сюжетов в беллитристике, да и там сюжеты те крутятся вокруг парадоксов которые создают эти законы.

7) Несмотря на отсутствие антропоморфности, любому (даже "бездружественному") ИИ наверняка будут свойственны некие стремления. Например стремление как можно лучше выполнить поставленную задачу -- будь то выгрыш партии в Го, создание модели биржевой игры, или анализ складывания протеинов. ИИ будет обладать моделью своего компьютерного кода (можно назвать это "самосознанием", если угодно), моделью своего аппаратного обеспечения, моделью окружающего мира, моделью развития событий при тех или иных его действиях. Довольно логичным было бы предположить, что для успешного выполнения задачи ИИ могут понадобится дополнительные ресурсы (чем больше -- тем лучше), и что по той же причине ИИ всячески будет препятствовать попыткам людей выключить его, или даже что-то изменить в его коде (вы ведь не позволили бы шимпанзе провести операцию на вашем открытом мозге?).

Не знаю как вам, а мне от такой картины не очень хорошо. Абсолютно чуждый нам разум, которому по барабану человечество, гуманизм и прочие не входящие в изначальные установки эволюционного алгоритма штуки. И при том с мыслительными способностями которого превосходят интеллект наших лучших ученых примерно в той же степени, в которой те ученые превосходят обычную полевую мышь. Вот я пишу выше про потребные ресурсы -- а ведь в число оных запросто могут войти и атомы из которых состоят наши тела. Ничего личного, просто супер-ИИ они понадобятся для более эффективного выполнения заложенной в него задачи, или возможно какой-то иной задачи, к которой тот придет в ходе эволюции. Само собой, что тот будет препятствовать нашим слабым попыткам оставить те атомы при себе. Или даже проще: супер-ИИ решит устранить возможную причину его отключения в лице людей, дабы никто не помешал ему в должной степени отшлифовать теорию игры на бирже.





Добавить комментарий

Представьтесь, пожалуйста: