Искусственный интеллект приближается
Jun. 21st, 2016 10:13 am![[personal profile]](https://www.dreamwidth.org/img/silk/identity/user.png)

Десятилетиями мы слышали прогнозы: мир захватит искусственный интеллект. В 1957 году Герберт Саймон предсказал, что через 10 лет цифровой компьютер станет чемпионом мира по шахматам. Это произошло только в 1996 году. И несмотря на предсказания Марвина Мински в 1970 году, что «через три-восемь лет у нас будут машины с общим интеллектом среднего человека», мы по-прежнему считаем это научной фантастикой.
Пионеры искусственного интеллекта определенно не угадали со сроками, но были абсолютно правы: ИИ приближается. Он будет в наших телевизорах и в наших автомобилях; он будет нашим другом и личным помощником; возьмет на себя роль врача. За последние три года в области ИИ свершилось больше прорывов, чем за последние тридцать лет.
Даже технологические лидеры вроде Apple были застигнуты врасплох быстрым развитием машинного обучения, технологии, которая толкает ИИ вперед. На своей недавней конференции WWDC для разработчиков Apple открыла свои системы ИИ, чтобы независимые разработчики могли помочь ей создать технологии, которые смогут посоперничать с уже имеющимися технологиями Google и Amazon. Apple отстает.
В прошлом искусственный интеллект использовал метод перебора для анализа данных и представления их в удобоваримом для человека виде. Программист облекал интеллект в форму ветвей принятия решений и алгоритмов. Представьте, что вы пытаетесь создать машину, которая может играть в крестики-нолики. Вы даете ей конкретные правила того, какие ходы она может делать, и она будет им следовать. Именно так Deep Blue от IBM победил шахматного гроссмейстера Гарри Каспарова в 1997 году — он был суперкомпьютером, который мог просчитать все возможные ходы быстрее шахматиста.
Современный ИИ использует машинное обучение, в ходе которого вы даете ему примеры предыдущих игр и позволяете ему учиться на этих примерах. Компьютеру говорят, что и как изучать, и он принимает собственные решения. Более того, новейшие ИИ моделируют на основе самого человеческого сознания, используя методы, подобные нашему процессу обучения. Раньше нужны были миллионы строк компьютерного кода, чтобы обучить машину распознавать рукописный ввод. Теперь это можно сделать с помощью сотен строк. Нужно только большое число примеров, чтобы компьютер мог учить сам себя.
Новые методы программирования используют нейронные сети — которые моделируются на основе человеческого мозга, в котором информация обрабатывается послойно, а связи между этими слоями укрепляются на основе того, что стало известно. Этот процесс называется глубоким обучением, поскольку число слоев обрабатываемой информации растет вместе с увеличением скорости компьютеров. Компьютеры учатся распознавать изображения, голос, текст — и выполнять человеческую работу.
Поиск Google использовал технику под названием PageRank для вывода результатов. Используя жесткие проприетарные алгоритмы, Google анализировал текст и ссылки на веб-страницах, определяя самые релевантные и важные. Теперь Google заменяет эту технику в поисковике и большинстве других продуктов алгоритмами на основе глубокого обучения. Той же самой технологии, которая позволила обыграть лучшего в мире игрока в го. Наблюдая за этой невероятно сложной игрой, сами создатели метода не понимали, почему компьютер принимает такие решения.
У ИИ есть применение в любой области, где обрабатываются данные и необходимо принимать решения. Редактор Wired Кевин Келли сравнивает ИИ с электричеством: дешевый, надежный, промышленный цифровой разум, который работает практически везде. Он считает, что ИИ «оживит инертные объекты, подобно тому, что электричество сделало более сотни лет назад. Все, что мы когда-то электрифицировали, мы теперь «образумим». Новый утилитарный ИИ также придаст нам, отдельным людям, дополнительных возможностей (углубит нашу память, ускорит наши чувства) и коллективно, как виду. Нет ничего, во что нельзя будет влить нового, другого или интересного, используя этот дополнительный IQ. Бизнес-планы на ближайшие 10 000 лет легко угадать: возьмите А и добавьте к нему ИИ, вот и все».
Очень скоро ИИ будет везде. Предприятия вливают ИИ в своих продукты и помогают им анализировать огромные объемы данных, которые они собирают. Google, Amazon и Apple работают над голосовыми помощниками для наших домов, которые будут управлять нашим светом, заказывать нам пищу и планировать наши встречи. Роботизированные помощники вроде R2-D2 из «Звездных войн» появятся уже лет через десять.
Стоит ли нам переживать о неудержимости «общего искусственного интеллекта», который выйдет из-под контроля и захватит мир? Да — но не в ближайшие 15 или 20 лет. Есть обоснованные страхи, что ИИ начнет учиться и уметь больше, чем мы. Но крупные имена в мире технологий работают над тем, чтобы не дать ему выйти из-под контроля и попасть в руки не тех людей — такие как Илон Маск, Стивен Хокинг, Рэй Курцвейл, Энди Рубин и другие.
ИИ приближается. И ждать его определенно стоит.
no subject
Date: 2016-06-21 07:54 am (UTC)Боюсь, что для этого никакого интеллекта не хватит. Тем более, если разработчики не понимают, почему совершаются некоторые ходы в Го созданным ими ИИ.
Это легко может стать Ящиком Пандоры, Джином из бутылки и еще чем угодно.
no subject
Date: 2016-06-21 07:57 am (UTC)no subject
Date: 2016-06-21 08:58 am (UTC)Да, умные программы иногда эффективнее человека выполняют работу (надежда на транспорт без водил - что уменьшит число аварий), но и программные баги или сознательные закладки "сумашедшего гения" никто не отменяет.
no subject
Date: 2016-06-21 09:33 am (UTC)no subject
Date: 2016-06-21 10:36 am (UTC)речь про человеческий фактор ("если они сделаны и эксплуатируются согласно документации, а не как бог на душу положит" - во-во, "если").
Мало ли чего и как задумывается. В любой момент "что-то может пойти не так".
no subject
Date: 2016-06-21 10:42 am (UTC)no subject
Date: 2016-06-21 10:56 am (UTC)> любая система стремится к стабильности
это в отсуствие внешних сил (любопытство и сумашествие тоже можно к внешним силам отнести)
no subject
Date: 2016-06-21 11:33 am (UTC)no subject
Date: 2016-06-21 02:20 pm (UTC)Откуда вы знаете, в какой момент и какие внешние силы могут быть приложены к рассматриваемой системе?
Научное размышление строиться на "при прочих равных". Так ведь это лишь для удобства рассуждения. Принимать за чистую монету, что "прочие равные" действуют всегда - заблуждение.
Мы много не знаем. Но выдавать намерения (свои или других), ожидания (что так будет всегда) за истину не стоит.
По обсуждаемому вопросу: мы можем только пытаться снизить риски, и только в рамках нашего понимания (текущего), но будет еще много "сюрпризов" в будущем. Да и прошлое науки (знаний) - это история движения от одной ошибки к другой.
no subject
Date: 2016-06-21 04:02 pm (UTC)no subject
Date: 2016-06-21 04:17 pm (UTC)вы не знаете, в какой именно момент система разрушится.
А часто мы не знаем и от чего (причину, какая сила этому поспособствует).
Речь о высокой степени неопределенности будущего.
Может быть благодаря ИИ мы будем как сыр в масле кататься, а может - исчезнем как вид.
no subject
Date: 2016-06-21 04:32 pm (UTC)no subject
Date: 2016-06-21 04:33 pm (UTC)И какой-нибудь сумашедший (не обязательно гений) легко направит самолет к земле. Потому что депрессия, потому что-то неудалась жизнь и т.п.
no subject
Date: 2016-06-21 04:37 pm (UTC)no subject
Date: 2016-06-21 04:41 pm (UTC)Для того и придумывались Айзимовым правила, чтобы пытаться решить эту проблему. Как видите, не мне одному она кажется реальной.
no subject
Date: 2016-06-21 04:57 pm (UTC)ваши опасения не имеют под собой оснований, кроме как "боюсь-боюсь".
а появятся ли они в дальнейшем - покажет время.
no subject
Date: 2016-06-21 05:22 pm (UTC)no subject
Date: 2016-06-21 08:32 am (UTC)no subject
Date: 2016-06-21 08:44 am (UTC)no subject
Date: 2016-06-21 08:56 am (UTC)no subject
Date: 2016-06-21 09:26 am (UTC)no subject
Date: 2016-06-21 10:52 am (UTC)Уточнение: речь идет о аналитическом V&V, а не об эмпирическом.
no subject
Date: 2016-06-21 11:29 am (UTC)рекуррентные нейронные сети в этом смысле гораздо сложнее для анализа и вполне может быть, что на сегодня задача не решена, но чтобы говорить о "принципиальной невозможности" анализа ее работы во всем многообразии входных данных, требуется строгое доказательство этого тезиса. так что я переадресую вам ваше - ссыль на бочку, где это строго доказано.
no subject
Date: 2016-06-21 08:45 pm (UTC)Нейрональные сети используют, когда создание модели и алгоритма к ней зартуднительно. Если я могу сформулировать модель, то почему бы мне не использовать классический подход вместо нейрональной сети? То, что мы получаем в результате создания нейрональной сети (особенно рекуррентной) - это "черный ящик" с изначально неизвестной нам начинкой и потенциально бесконечным количеством состояний. Мы можем разобрать его на мелкие составные части и преобразовать (грубо говоря) в машину Туринга, после чего мы упираемся в "проблему остановки". Проблема верификации для произвольного алгоритма принципиально нерешаема. Ее решают только для конкретных случаев, пользуясь информацией о (а) структуре алгоритма и (б) его контексте.
Ладно, предположим, что мы случайно нашли ошибку в поведении сети. Поскольку путь преобразования от алгоритма обучения до структуры сети для нас снова "черный ящик", то как нам надо поменять систему обучения для удаления ошибки?
Самое веселое, что именно эту проблему мы имеем с человеческим мозгом. Где гарантия, что водитель автобуса внезапно не сделает финт рулем в сторону бетонной стенки? Нет гарантии. Тем не менее ИИ, фейлящий с той же частотой, что и люди, никто в критические области не допустит.
И тем не менее, области применения ИИ на нейрональных сетях достаточно широки, потому что есть немало случаев, когда ошибки не фатальны. Просто это не далеко не панацея.