5cek: (Украина)
[personal profile] 5cek


Десятилетиями мы слышали прогнозы: мир захватит искусственный интеллект. В 1957 году Герберт Саймон предсказал, что через 10 лет цифровой компьютер станет чемпионом мира по шахматам. Это произошло только в 1996 году. И несмотря на предсказания Марвина Мински в 1970 году, что «через три-восемь лет у нас будут машины с общим интеллектом среднего человека», мы по-прежнему считаем это научной фантастикой.


Пионеры искусственного интеллекта определенно не угадали со сроками, но были абсолютно правы: ИИ приближается. Он будет в наших телевизорах и в наших автомобилях; он будет нашим другом и личным помощником; возьмет на себя роль врача. За последние три года в области ИИ свершилось больше прорывов, чем за последние тридцать лет.

Даже технологические лидеры вроде Apple были застигнуты врасплох быстрым развитием машинного обучения, технологии, которая толкает ИИ вперед. На своей недавней конференции WWDC для разработчиков Apple открыла свои системы ИИ, чтобы независимые разработчики могли помочь ей создать технологии, которые смогут посоперничать с уже имеющимися технологиями Google и Amazon. Apple отстает.

В прошлом искусственный интеллект использовал метод перебора для анализа данных и представления их в удобоваримом для человека виде. Программист облекал интеллект в форму ветвей принятия решений и алгоритмов. Представьте, что вы пытаетесь создать машину, которая может играть в крестики-нолики. Вы даете ей конкретные правила того, какие ходы она может делать, и она будет им следовать. Именно так Deep Blue от IBM победил шахматного гроссмейстера Гарри Каспарова в 1997 году — он был суперкомпьютером, который мог просчитать все возможные ходы быстрее шахматиста.

Современный ИИ использует машинное обучение, в ходе которого вы даете ему примеры предыдущих игр и позволяете ему учиться на этих примерах. Компьютеру говорят, что и как изучать, и он принимает собственные решения. Более того, новейшие ИИ моделируют на основе самого человеческого сознания, используя методы, подобные нашему процессу обучения. Раньше нужны были миллионы строк компьютерного кода, чтобы обучить машину распознавать рукописный ввод. Теперь это можно сделать с помощью сотен строк. Нужно только большое число примеров, чтобы компьютер мог учить сам себя.

Новые методы программирования используют нейронные сети — которые моделируются на основе человеческого мозга, в котором информация обрабатывается послойно, а связи между этими слоями укрепляются на основе того, что стало известно. Этот процесс называется глубоким обучением, поскольку число слоев обрабатываемой информации растет вместе с увеличением скорости компьютеров. Компьютеры учатся распознавать изображения, голос, текст — и выполнять человеческую работу.

Поиск Google использовал технику под названием PageRank для вывода результатов. Используя жесткие проприетарные алгоритмы, Google анализировал текст и ссылки на веб-страницах, определяя самые релевантные и важные. Теперь Google заменяет эту технику в поисковике и большинстве других продуктов алгоритмами на основе глубокого обучения. Той же самой технологии, которая позволила обыграть лучшего в мире игрока в го. Наблюдая за этой невероятно сложной игрой, сами создатели метода не понимали, почему компьютер принимает такие решения.

У ИИ есть применение в любой области, где обрабатываются данные и необходимо принимать решения. Редактор Wired Кевин Келли сравнивает ИИ с электричеством: дешевый, надежный, промышленный цифровой разум, который работает практически везде. Он считает, что ИИ «оживит инертные объекты, подобно тому, что электричество сделало более сотни лет назад. Все, что мы когда-то электрифицировали, мы теперь «образумим». Новый утилитарный ИИ также придаст нам, отдельным людям, дополнительных возможностей (углубит нашу память, ускорит наши чувства) и коллективно, как виду. Нет ничего, во что нельзя будет влить нового, другого или интересного, используя этот дополнительный IQ. Бизнес-планы на ближайшие 10 000 лет легко угадать: возьмите А и добавьте к нему ИИ, вот и все».

Очень скоро ИИ будет везде. Предприятия вливают ИИ в своих продукты и помогают им анализировать огромные объемы данных, которые они собирают. Google, Amazon и Apple работают над голосовыми помощниками для наших домов, которые будут управлять нашим светом, заказывать нам пищу и планировать наши встречи. Роботизированные помощники вроде R2-D2 из «Звездных войн» появятся уже лет через десять.

Стоит ли нам переживать о неудержимости «общего искусственного интеллекта», который выйдет из-под контроля и захватит мир? Да — но не в ближайшие 15 или 20 лет. Есть обоснованные страхи, что ИИ начнет учиться и уметь больше, чем мы. Но крупные имена в мире технологий работают над тем, чтобы не дать ему выйти из-под контроля и попасть в руки не тех людей — такие как Илон Маск, Стивен Хокинг, Рэй Курцвейл, Энди Рубин и другие.

ИИ приближается. И ждать его определенно стоит.

Date: 2016-06-21 07:54 am (UTC)
From: [identity profile] parlonsfrancais.livejournal.com
> чтобы не дать ему выйти из-под контроля и попасть в руки не тех людей

Боюсь, что для этого никакого интеллекта не хватит. Тем более, если разработчики не понимают, почему совершаются некоторые ходы в Го созданным ими ИИ.

Это легко может стать Ящиком Пандоры, Джином из бутылки и еще чем угодно.
Edited Date: 2016-06-21 07:55 am (UTC)

Date: 2016-06-21 07:57 am (UTC)
From: [identity profile] 5cek.livejournal.com
alphago это довольно специфический "ии", так что человек там и не обязан понимать. универсальный ии будет, по крайней мере, на первых порах, куда более предсказуем. опять же - можно иметь специальный ии для контроля за остальными :) в общем, будет, как минимум, интересно.

Date: 2016-06-21 08:58 am (UTC)
From: [identity profile] parlonsfrancais.livejournal.com
Какая предсказуемость, если мы не можем до конца контролировать ни самолеты, ни ядерные станции.
Да, умные программы иногда эффективнее человека выполняют работу (надежда на транспорт без водил - что уменьшит число аварий), но и программные баги или сознательные закладки "сумашедшего гения" никто не отменяет.

Date: 2016-06-21 09:33 am (UTC)
From: [identity profile] 5cek.livejournal.com
вы путаете теплое с мягким. при чем тут самолеты и ядерные станции? это объекты, грубо говоря, с миллионом входных параметров - и то их как-то получается контролировать, если они сделаны и эксплуатируются согласно документации, а не как бог на душу положит. с ИИ все проще и одновременно сложнее - никто не будет делать программу, реализующую весь набор искусственного интеллекта одним махом. будет все, как в природе - сначала реализуется минимально рабочий вариант, а дальше методами генетических алгоритмов и самообучения будет реализовываться все более сложные структуры. имея необходимый набор ключевых тестов, будут исключаться заведомо неприемлемые варианты, ну а дальше, если ИИ будет хотя бы частично похож на человеческий - обучение, самообучение (в том числе и с подкреплением) и контроль.

Date: 2016-06-21 10:36 am (UTC)
From: [identity profile] parlonsfrancais.livejournal.com
Это вы не услышали:

речь про человеческий фактор ("если они сделаны и эксплуатируются согласно документации, а не как бог на душу положит" - во-во, "если").

Мало ли чего и как задумывается. В любой момент "что-то может пойти не так".
Edited Date: 2016-06-21 10:38 am (UTC)

Date: 2016-06-21 10:42 am (UTC)
From: [identity profile] 5cek.livejournal.com
в таком случае, мы "не можем контролировать" вообще ничего. даже себя самого. если вам нравятся крайности, то можете рассматривать именно их, но вообще-то в крайних точках мало кто или что существует, любая система стремится к стабильности.

Date: 2016-06-21 10:56 am (UTC)
From: [identity profile] parlonsfrancais.livejournal.com
Вы правильно про крайние точки упомянули. Помниться школьником эксперимент ставил - будет ли керосин (авиационный) гореть, если его перемешать в тазу с водой. Слава богу, в тот момент в ванной белье не сушилось, только потолок закоптил ))

> любая система стремится к стабильности

это в отсуствие внешних сил (любопытство и сумашествие тоже можно к внешним силам отнести)

Date: 2016-06-21 11:33 am (UTC)
From: [identity profile] 5cek.livejournal.com
даже при наличии внешних сил, колебания состояния устойчивой системы стремятся к затуханию. конечно, если эти силы не носят характер целенаправленного разрушения, если они случайны.

Date: 2016-06-21 02:20 pm (UTC)
From: [identity profile] parlonsfrancais.livejournal.com
С чего вы решили, что рассматриваемая вами система устойчива?
Откуда вы знаете, в какой момент и какие внешние силы могут быть приложены к рассматриваемой системе?
Научное размышление строиться на "при прочих равных". Так ведь это лишь для удобства рассуждения. Принимать за чистую монету, что "прочие равные" действуют всегда - заблуждение.

Мы много не знаем. Но выдавать намерения (свои или других), ожидания (что так будет всегда) за истину не стоит.

По обсуждаемому вопросу: мы можем только пытаться снизить риски, и только в рамках нашего понимания (текущего), но будет еще много "сюрпризов" в будущем. Да и прошлое науки (знаний) - это история движения от одной ошибки к другой.

Date: 2016-06-21 04:02 pm (UTC)
From: [identity profile] 5cek.livejournal.com
что значит "откуда"? неустойчивые системы долго не живут, вот откуда.

Date: 2016-06-21 04:17 pm (UTC)
From: [identity profile] parlonsfrancais.livejournal.com
Я о другом:
вы не знаете, в какой именно момент система разрушится.

А часто мы не знаем и от чего (причину, какая сила этому поспособствует).

Речь о высокой степени неопределенности будущего.

Может быть благодаря ИИ мы будем как сыр в масле кататься, а может - исчезнем как вид.

Date: 2016-06-21 04:32 pm (UTC)
From: [identity profile] 5cek.livejournal.com
думаю, что не исчезнем. вариантов обезопасить себя можно придумать вагон и маленькую тележку, по крайней мере до тех пор, пока ИИ не будет доступен любому желающему. А к тому времени, думаю, вопрос безопасности будет решен окончательно.

Date: 2016-06-21 04:33 pm (UTC)
From: [identity profile] parlonsfrancais.livejournal.com
"Дума", "надеюсь", "хочу"...

И какой-нибудь сумашедший (не обязательно гений) легко направит самолет к земле. Потому что депрессия, потому что-то неудалась жизнь и т.п.

Date: 2016-06-21 04:37 pm (UTC)
From: [identity profile] 5cek.livejournal.com
пока что никакой сумасшедший не смог в глобальном плане сделать ничего даже отдаленно напоминающее глобальную проблему, и я не вижу поводов, кроме вашего желания, чтобы так не было и впредь.
Edited Date: 2016-06-21 04:38 pm (UTC)

Date: 2016-06-21 04:41 pm (UTC)
From: [identity profile] parlonsfrancais.livejournal.com
Хотя бы не выдавайте мое опасение за мое желание. Это подмена лишь свидетельствует о вашем раздражении, что с вами не согласны.

Для того и придумывались Айзимовым правила, чтобы пытаться решить эту проблему. Как видите, не мне одному она кажется реальной.

Date: 2016-06-21 04:57 pm (UTC)
From: [identity profile] 5cek.livejournal.com
давайте вы не будете тут играть в мега-психолога и станете говорить лишь о своих мыслях и чувствах? :)
ваши опасения не имеют под собой оснований, кроме как "боюсь-боюсь".
а появятся ли они в дальнейшем - покажет время.

Date: 2016-06-21 05:22 pm (UTC)
From: [identity profile] parlonsfrancais.livejournal.com
Да, давайте вы один будете играть в предсказателя ))

Date: 2016-06-21 08:32 am (UTC)
From: [identity profile] catodon.livejournal.com
У ИИ на нейрональных сетях есть большая проблема: его поведение математически непредсказуемо. С обычными алгоритмами (особенно с задействованными в опасных областях) проводится формальная процедура V&V (верификация и валидирование). И если программа дает сбой, то это ошибка разработчика. А ИИ на нейрональных сетях можно тестировать бесконечно, но гарантии, что в критической ситуации будет получен верный результат все равно не будет. Хуже того: в случае критической ошибки разработчик не может ее понять, локализировать и удалить. То есть ситуация та же, что и с человеческим интеллектом. Проблема только в том, что от ИИ часто требуется большая надежность.

Date: 2016-06-21 08:44 am (UTC)
From: [identity profile] 5cek.livejournal.com
у любого ИИ с любым алгоритмом будет непредсказуемое поведение - на то он и интеллект. но имеющиеся сейчас образцы, в том числе и на нейронных сетях, интеллектом назвать сложно - пока это частный случай узкоспециализированных решений для поиска ответов на конкретные задачи - будь то игра в го, вождение автомобиля или игра на бирже. алгоритм получения наиболее вероятного ответа для того или иного случая формируется самой программой исходя из полученных ею ранее данных для обучения, поэтому, в принципе, нет ничего сложного в предсказании поведения этого ИИ, но для человека это чрезмерно трудоемкая задача, а делать еще один ИИ для предсказания работы другого смысла нет. в любом случае, это еще не интеллект, это так, всего лишь какое-то приближение к "интеллекту" насекомых.

Date: 2016-06-21 08:56 am (UTC)
From: [identity profile] catodon.livejournal.com
Вы не поняли: дело в фундаментальном принципе. Для ИИ на логических структурах можно формально показать набор действующих инвариант. Для ИИ на нейрональных сетях это принципиально невозможно. Азимовское "не причини вреда человеку" не будет гарантированно работать. А когда не сработает, мы не сможем выяснить, почему это произошло и не повторится ли это снова.

Date: 2016-06-21 09:26 am (UTC)
From: [identity profile] 5cek.livejournal.com
ничего подобного. невозможность предсказать работу нейронной сети относится только к случаю, когда вы не имеете данных о ее обучении - при наличии же этих данных, никакой принципиальной невозможности предсказания работы не существует.

Date: 2016-06-21 10:52 am (UTC)
From: [identity profile] catodon.livejournal.com
Вы знаете методику формальной верификации и валидирования поведения нейронной сети? Ссыль на статью на бочку.

Уточнение: речь идет о аналитическом V&V, а не об эмпирическом.
Edited Date: 2016-06-21 11:05 am (UTC)

Date: 2016-06-21 11:29 am (UTC)
From: [identity profile] 5cek.livejournal.com
смотря какая сеть. сеть, скажем, с прямой передачей - это, с хорошей степенью приближения, конечный автомат с большим числом состояний. теория автоматов уже давно разработана и широко применяется, так что там с проблемами такого справиться можно, хоть это и требует заметных вычислительных мощностей.
рекуррентные нейронные сети в этом смысле гораздо сложнее для анализа и вполне может быть, что на сегодня задача не решена, но чтобы говорить о "принципиальной невозможности" анализа ее работы во всем многообразии входных данных, требуется строгое доказательство этого тезиса. так что я переадресую вам ваше - ссыль на бочку, где это строго доказано.
Edited Date: 2016-06-21 11:29 am (UTC)

Date: 2016-06-21 08:45 pm (UTC)
From: [identity profile] catodon.livejournal.com
ОК, если уже вдаемся в детали, то соглашусь, что я допустил непростительные неточности в формулировках :-)

Нейрональные сети используют, когда создание модели и алгоритма к ней зартуднительно. Если я могу сформулировать модель, то почему бы мне не использовать классический подход вместо нейрональной сети? То, что мы получаем в результате создания нейрональной сети (особенно рекуррентной) - это "черный ящик" с изначально неизвестной нам начинкой и потенциально бесконечным количеством состояний. Мы можем разобрать его на мелкие составные части и преобразовать (грубо говоря) в машину Туринга, после чего мы упираемся в "проблему остановки". Проблема верификации для произвольного алгоритма принципиально нерешаема. Ее решают только для конкретных случаев, пользуясь информацией о (а) структуре алгоритма и (б) его контексте.

Ладно, предположим, что мы случайно нашли ошибку в поведении сети. Поскольку путь преобразования от алгоритма обучения до структуры сети для нас снова "черный ящик", то как нам надо поменять систему обучения для удаления ошибки?

Самое веселое, что именно эту проблему мы имеем с человеческим мозгом. Где гарантия, что водитель автобуса внезапно не сделает финт рулем в сторону бетонной стенки? Нет гарантии. Тем не менее ИИ, фейлящий с той же частотой, что и люди, никто в критические области не допустит.

И тем не менее, области применения ИИ на нейрональных сетях достаточно широки, потому что есть немало случаев, когда ошибки не фатальны. Просто это не далеко не панацея.

March 2017

S M T W T F S
    1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 3031 

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Jul. 4th, 2025 03:12 pm
Powered by Dreamwidth Studios