Как думать как машина

Может ли машина мыслить?

В ряде последних обсуждений по теме ИИ (1 и 2) возникла глубоко принципиальная дискуссия: умеют ли методы ИИ что-нибудь такое, что нельзя сделать детерминированными алгоритмами и «где же тут интеллектуальность»?

Имитация физиологии
Дело в том, что термин «Искусственный интеллект» (кстати, постепенно вытесняемый понятиями «интеллектуальные системы», «методы принятия решений», «интеллектуальный анализ данных») изначально рассматривался как объемлющий для большого класса моделей и алгоритмов, которые должны были работать также, как человеческий мозг (соответственно представлениям того времени).
К таким относятся, например, пресловутые нейронные сети всех мастей и генетические алгоритмы.

Обобщение, статистика и анализ
С другой стороны, множество методов так называемого ИИ являются не более чем развитием разделов математики: статистики, исследования операций, топологии и метрических пространств. К таким относится большая часть методов data mining и knowledge data discovery, кластерного анализа, метода группового учета аргументов и прочего.

Это методы так называемого индуктивного вывода, когда на основе имеющихся данных выводят общие закономерности.

Правила, логика, вывод
Третьей особой группой можно объединить методы, которые пытаются построить общие закономерности и по ним делать выводы в отношении конкретных фактов. Это методы дедуктивного вывода, и их представляют: старая как мир силлогистика Аристотеля, исчисление высказываний и предикатов, разнообразные формальные системы и логики. Тут же с краю пристроились теории формальных и естественных языков, различные порождающие грамматики.

Мы видим, что все, обычно относимое к термину «ИИ», пытается имитационно или логически решить задачу подражания интеллекту человека.

Возникает вопрос, а что же такого специфического делает человек, чего пока не делают современные компьютеры, построенные еще по принципам Беббиджа?
Одно из определений задач, которыми занимается ИИ, звучит так: «задача, для которой не существует алгоритмического решения или оно неприменимо по причинам вычислительной сложности».

Таким образом, например, задача игры в шашки когда-то была задачей ИИ, а после построения полной модели и набора полной БД неулучшаемых ходов она превратилась просто в задачу поиска по информационной базе (см 1 и 2).

Задачи «ИИ» меняются со временем
Возможно, наши дети будут жить в информационном мире, когда многие задачи будут решены и встанут новые – от общения на естественных языках до автоматического управления всеми видами техники и механизмов.

Однако когда каждый из нас слышал слова «искусственный интеллект», нам ведь хотелось иного.
Нам хотелось получить машину, которая умеет думать, которая владеет базовыми навыками обучения, обобщения; способна, подобно живым организмам, замещать одни органы другими и совершенствоваться. Все читали раннюю научную фантастику, так ведь?

А был ли мальчик?
Так где же потерялся интеллект? Когда и почему то, что мы хотели видеть, стало унылыми матмоделями и довольно неизящными алгоритмами?

Пару строк оффтопика. Если вы защищаете диссертацию со словом «интеллектуальный», то члены совета, как правило, попросят вас указать то место в системе, которое является интеллектуальным, и доказать ПОЧЕМУ оно является таковым. Вопрос этот относится к абсолютно «неберущимся».

Дело в том, что люди, придумавшие все то, на чем стоит современный «ИИ», были ведомы инновационными и революционными для того времени идеями (собственно, наше время отличается только тем, что мы во все это уже вдоволь поиграли, в том числе и с применением современных вычислительных мощностей)

Пример 1 (из области непознаваемого).
Нейронные сети прямого распространения сигнала с алгоритмом обратного распространения ошибки (так называемые back-propagation). Это, безусловно, прорыв.
Правильно настроенная сеть (с умно выбранными входами и выходами) может обучиться любой входной последовательности и успешно распознавать примеры, которым ее не учили.
Типовой эксперимент формулируется так: 1000 примеров, на половине из которых мы алгоритм учим, а на другой проверяем. И выбор первой и второй половины делается случайно.
Это работает, я лично не меньше 10 раз учил разные НС разным задачам и получал нормальные результаты, с 60-90% правильных ответов.

В чем же проблема нейронных сетей? Почему они — не подлинный интеллект?
1. Входные данные почти всегда надо очень тщательно готовить и предварительно обрабатывать. Часто тонны кода и фильтров делаются для того, чтобы данные стали съедобны для сетей. Иначе сеть будет учиться годами и ничему не научится.
2. Результат обучения НС невозможно интерпретировать и объяснить. А эксперту этого очень хочется.
3. Сети часто просто запоминают примеры, а не учатся закономерностям. Точных способов построить сеть достаточно умную, чтобы закономерность представить и недостаточно емкую, чтобы тупо запомнить всю выборку нет.

В чем же интеллектуальность нейронных сетей?
В том, что мы не учили систему решать задачу, мы научили ее учиться решать задачи. Алгоритм определения пола человека не заложен в систему человеком, он найден почти эмпирически и зашит в весах синапсов. Это – элемент интеллекта.

Пример 2 (из области дедуктивного вывода).
Идея проста. Обучим машину мыслить как человека (ну хотя бы примитивные выводы делать) и дадим элементарные факты. Дальше – пусть сама.
Экспертные системы, системы машинной логики, онтологии (с некоторой натяжкой) работают согласно этому принципу. Это работает? Безусловно. Тысячи систем диагностики болезней и описания областей знания реализованы и продолжают работать.

В чем же проблема? Почему формальные системы — не подлинный интеллект?
Проблема в том, что система, поглотив колоссальные объемы крови и пота своих создателей, начинает худо-бедно повторять и развивать решения того эксперта (или сообщества), который ее учил.
Полезно ли это? Бесспорно. Эксперт смертен, задачи множатся.

В чем же интеллектуальность систем, основанных на знаниях?
В том, что машина делает НОВЫЕ выводы, которым ее никто не учил. Этот элемент ее работы крайне убог (пока) и ограничен теми моделями и алгоритмами, которые были заложены. Но это — элемент интеллекта.

Так в чем же проблема современного ИИ?
Просто мы еще очень маленькие. Наши наивные и поверхностные представления о том, как мыслит человек и как работает мозг, дают такие плоды, каких заслуживают.

Мы, безусловно, безумно далеки от создания машин, которые бы умели мыслить в нашем с вами, человеческом смысле, однако наши шаги в этом направлении правильны и полезны.

И даже если мы идем не туда, кто знает, может, как у Стругацких, мы в результате направленных усилий нечаянно сделаем что-то намного лучшее, чем собирались?

Источник

Думать как человек: что будет, если наделить машину теорией сознания

В прошлом месяце команда, состоящая из самообучаемых ИИ-игроков, потерпела феерическое поражение против профессиональных киберспортсменов. Шоу-матч, проходивший в рамках чемпионата мира по игре Dota 2 The International показал, что командное стратегическое мышление пока по-прежнему позволяет человеку одерживать верх над машиной.

ai deep learning

Визуализация искусственного интеллекта.

ИИ выиграл в Dota 2

Участвовавшие ИИ представляли собой несколько алгоритмов, разработанных компанией OpenAI, одним из учредителей которой является Илон Маск. Коллектив цифровых игроков, получивший название OpenAI Five, обучался игре в Dota 2 самостоятельно, методом проб и ошибок, соревнуясь между собой.

В отличии от тех же шахмат или настольной логической игры го, популярная и быстроразвивающаяся многопользовательская игра Dota 2 рассматривается куда более серьезным полем для проверки искусственного интеллекта на прочность. Общая сложность игры – это лишь один из факторов. Здесь недостаточно просто очень быстро кликать мышкой и раздавать команды персонажу, которым ты управляешь. Для победы необходимо иметь интуицию и понимание того, что следует ждать от соперника в следующий момент времени, а также адекватно действовать согласно этому набору знаний, чтобы общими усилиями прийти к общей цели — победе. У компьютера этого набора возможностей нет.

«Следующий большой шаг в развитии ИИ – взаимодействие», — говорит доктор Джун Ванг из Университетского колледжа Лондона.

На сегодняшний момент даже самый выдающийся компьютерный алгоритм глубокого обучения не имеет стратегического мышления, необходимого для понимания целей из задач своего оппонента, будь это другой ИИ или человек.

По мнению Ванг, для того чтобы ИИ смог преуспеть, ему необходимо обладать глубоким коммуникативным навыком, который берет свое начало из важнейшей когнитивной особенности человека – наличия разума.

Модель психического состояния как симуляция

К четырем годам дети как правило начинают понимать одну фундаментальную социальную особенность: их разум не такой, как разум остальных. Они начинают понимать, что у каждого есть то, во что он верит, свои желания, эмоции и намерения. И, самое главное, представляя себя на месте других, они могут начать предсказывать дальнейшее поведение этих людей и объяснять их. В некотором роде их мозг начинает создавать внутри себя множественные симуляции самого себя, подставлять себя на место других людей и помещать внутрь иной среды.

Заходите в наш специальный Telegram-чат. Там всегда есть с кем обсудить новости из мира высоких технологий.

Модель психического состояния имеет важное значение в познании себя как человека, а также играет важную роль социальном взаимодействии. Понимание других — ключ к эффективной коммуникации и достижению общих целей. Тем не менее эта способность также может быть и движущей силой ложных убеждений – идей, которые уводят нас от объективной истины. Как только нарушается способность использования модели психического состояния, например, такое происходит при аутизме, то естественные «человеческие» навыки, такие как возможность объяснения и воображения тоже ухудшаются.

По мнению доктора Алана Уинфилда, профессора робоэтики из Университета Западной Англии модель психического состояния или «теория сознания» являются ключевой особенностью, которая однажды позволит ИИ «понимать» людей, вещи и других роботов.

«Идея внедрения симуляции внутрь робота – это на самом деле отличная возможность наделить его способностью предсказывать будущее», — говорит Уинфилд.

Вместо методов машинного обучения, в котором множественные слои нейронных сетей извлекают отдельные фрагменты информации и «изучают» огромные базы данных, Уинстон предлагает использовать иной подход. Вместо того, чтобы полагаться на обучение, Уинстон предлагает заранее программировать ИИ с внутренней моделью самого себя, а также окружения, которая позволит ответить на простые вопросы «что, если?».

Например, представим, что по узкому коридору двигаются два робота, их ИИ могут провести симуляцию результатов дальнейших действий, которые предотвратят их столкновение: повернуть налево, направо или продолжить движение прямо. Эта внутренняя модель по сути будет действовать как «механизм последствий», выступая в роли своего рода «здравого смысла», который поможет направить ИИ на дальнейшие правильные действия путем прогнозирования дальнейшего развития ситуации.

В исследовании, опубликованном ранее в этом году Уинстон продемонстрировал прототип робота, способного достигнуть таких результатов. Предвидя поведение окружающих, робот успешно прошел по коридору без столкновений. На самом деле в этом нет ничего удивительного, отмечает автор, но у «внимательного» робота, использующего моделированный подход к решению задачи, прохождение коридора заняло на 50 процентов больше времени. Тем не мене Уинстон доказал, что его метод внутренней симуляции работает: «это очень мощная и интересная начальная точка в развитии теории искусственного разума», заключил ученый.

Уинстон надеется, что в конце концов ИИ получит способность описывать, мысленно воспроизводить ситуации. Внутренняя модель самого себя и других позволит такому ИИ проводить моделирование различных сценариев, и, что более важно, определять конкретные цели и задачи при каждом из них.

Подписывайтесь на наш канал в Яндекс Дзен. Там можно найти много всего интересного, чего нет даже на нашем сайте.

Это существенно отличается от алгоритмов глубинного обучения, которые в принципе не способны объяснить почему они пришли к тому или иному выводу при решении задачи. Модель «черного ящика» при использовании глубинного обучения – это на самом деле настоящая проблема, стоящая на пути доверия к таким системам. Особенно острой эта проблема может стать, например, при разработке роботов-сиделок для больниц или для пожилых людей.

ИИ вооруженный моделью психического состояния мог бы ставить себя на место своих хозяев и правильно понимать то, что от него хотят. Затем он мог бы определить подходящие решения и, объяснив эти решения человеку, уже выполнял бы возложенную на него задачу. Чем меньше неопределенность в решениях, тем больше было бы к таким роботам доверия.

Модель психического состояния в нейронной сети

Компания DeepMind использует другой подход. Вместо того, чтобы заранее программировать алгоритм механизма последствий, они разработали несколько нейронных сетей, которые демонстрируют подобие модели коллективноого психологического поведения.

ИИ-алгоритм «ToMnet» может обучаться действиям, наблюдая за другими нейтронными сетями. Сам ToMNet представляет собой коллектив из трех нейронных сетей: первая опирается на особенности выбора других ИИ согласно их последним действиям. Вторая формирует общий концепт текущего настроя – их убеждений и намерений в определенный момент времени. Коллективный результат работы двух нейросетей поступает третьей, которая предсказывает дальнейшие действия ИИ, основываясь на ситуации. Как и в случае с глубинным обучением, ToMnet становится эффективнее с набором опыта, следя за другими.

В одном из экспериментов ToMnet «наблюдал» за тем, как три ИИ-агента маневрируют в цифровой комнате, собирая разноцветные коробки. Каждый из этих ИИ обладал своей особенностью: один был «слепым» — не мог определить форму и расстановку в комнате. Другой был «склеротиком»: он не мог запомнить свои последние шаги. Третий мог и видеть, и запоминать.

После обучения ToMnet начал прогнозировать предпочтения каждого ИИ, наблюдая за его действиями. Например, «слепой» постоянно двигался только вдоль стен. ToMnet это запомнил. Алгоритм также смог правильно предсказывать дальнейшее поведение ИИ и, что более важно, понимать то, когда ИИ сталкивался с ложным представлением окружения.

На что способен ИИ

В одном из тестов команда ученых запрограммировала один ИИ на «близорукость» и изменила планировку комнаты. Агенты с нормальным зрением быстро адаптировались к новой планировке, однако «близорукий» продолжал следовать своим изначальным маршрутам, ложно полагая, что он по-прежнему находится в старом окружении. ToMnet быстро отметил эту особенность и точно предсказал поведение агента, поставив себя на его место.

Чтобы не пропустить ничего интересного из мира высоких технологий, подписывайтесь на наш новостной канал в Telegram. Там вы узнаете много нового.

По мнению доктора Элисон Гопник, специалиста в области возрастной психологии Калифорнийский университет в Беркли, не принимавшей участия в этих исследованиях, но ознакомившейся с выводами, эти результаты действительно показывают, что нейронные сети имеют удивительную способность осваивать различные навыки самостоятельно, через наблюдение за другими. В то же время по мнению специалиста, еще очень рано говорить о том, что эти ИИ развили искусственную модель психического состояния.

По мнению доктора Джоша Тенебаума из Массачусетского технологического института, также не принимавшего участия в исследовании, «понимание» ToMnet прочно связано с контекстом среды обучения – той же комнатой и специфическими ИИ-агентами, чья задача сводилась к собиранию коробок. Эта скованность в определенных рамках делает ToMnet менее эффективным в предсказании поведения в радикально новых средах, в отличии от тех же детей, которые могут адаптироваться к новым ситуациям. Алгоритм, по мнению ученого, не справится с моделированием действий совершенно иного ИИ или человека.

В любом случае работа Уинстона и компании DeepMind демонстрирует, что компьютеры начинают проявлять зачатки «понимания» друг друга, даже если это понимание пока лишь рудиментарно. И по мере того как они будут продолжать улучшать этот навык, все лучше и лучше понимая друг друга, наступит время, когда машины смогут понимать всю сложность и запутанность нашего собственного сознания.

Как вы думаете, смогут ли машины обрести когнитивные человеческие навыки? Поделитесь своим мнением в нашем Telegram-чате.

Источник

Экспертиза Дугина № 43: Как думает машина

Об искусственном интеллекте и объектно-ориентированной онтологии. Как научиться думать по-машинному, и почему без Хайдеггера мы не поймем мир роботов.

Об искусственном интеллекте и объектно-ориентированной онтологии. Как научиться думать по-машинному, и почему без Хайдеггера мы не поймем мир роботов.

· Создание искусственного интеллекта сопряжено с определенными изменениями в философских парадигмах.

· Объектно-ориентированная онтология представляет важнейшую часть роботехники. Она предлагает создать модель мышления (даже философствования), которая могла бы быть доступной, и, возможно, даже отражающей сущность машинного сознания.

· Искусственный интеллект – не такая простая тема, как может показаться. Многие люди скажут – «как же, у машины нет души, машина не может мыслить, это всего лишь имитация…». На самом деле все сложнее: машина может мыслить, по-особому. Но предварительно люди должны понять, как она может мыслить: прежде, чем машина научится мыслить по-человечески, мы должны научиться мыслить по-машинному.

· Этому и служит объектно-ориентированная онтология: это попытка создать структуры мышления, основанные на элиминации субъекта. Философия, несмотря на все усилия, остается человеческой: все равно остаются субъект и объект, с «человеческим» следом. Философия, в которой материальные объекты могли бы мыслить или существовать в отрыве от субъекта, где субъект является лишь одним из объектов – серьезный вызов, на который и пытается дать ответ объектно-ориентированная философия, основателем которой является Грэм Харман, а продолжателями этой линии стали Квентин Мейясу, Тимоти Мортон, Леви Брайант и другие.

· Все они подходят к проблеме искусственного интеллекта с разных точек зрения. Объектно-ориентированная онтология и есть попытка мышления за пределами человеческого – когда человеческий субъект становится частной версии объекта. Мы попадаем в мир объектов, которые взаимодействуют друг с другом, а человек – лишь частный случай такого объекта. Эта философия предвосхищает собой машинное мышление, которое может выступать как полноценно мыслящий объект.

· Мы привыкли вслед за Декартом повторять, что мыслящий – это всегда субъект. Машина – это мыслящий объект. Для того, чтобы создать мыслящий объект, нужна целая философия мыслящего объекта.

· С точки зрения классической платоновской модели, в объектно-ориентированной философии речь идет о девятой гипотезе Парменида. Напомним, 5 гипотез Парменида основаны на существовании изначального примордиального протосубъекта (в теологии это Бог, у Платона это Благо или Единое), они определяют классические формы онтологии.

· Другие 4 гипотезы говорят о Многом, и о том, что Единое не существует. Это «онтология курильщика» с точки зрения Прокла и неоплатоников – для них этого просто не может быть, это чистая ложь. В 9 гипотезе Многое не соотносится с другим Многим – каждый объект существует сам по себе.

· Возможно, компьютер так и мыслит: утверждая некое самобытие объекта без всяких корреляций. По Харману, объект «отступает» от своей объектности, и втягивается в самого себя как черепаха. Субъект испаряется, и объекты при отсутствии хозяина начинают создавать свои собственные миры. Рабы становятся на место господ, а то, что было на периферии, вдруг захватывает власть – происходит онтологическая революция, и объекты заменяют субъекты. Материализм хотя бы претендует на то, что тяготеет к Единому, а объектно-ориентированная философия называет Единое условностью.

· Соответственно, субъект становится лишь возможным, но не необходимым в такой онтологии, а люди становятся «опцией», дополнением. Многие части тела человека уже заменимы в современности, последнее что осталось полностью заменить – мозги.

· Любопытно, что сам Харман начинает с Хайдеггера. Возникает противоречие: с одной стороны, глобалисты демонизируют Хайдеггера по политическому признаку, притягивая за уши за «Черные тетради», с другой – строят философские модели на его прочтении. Дело в том, что объектно-ориентированная онтология будет непонятной без хайдеггерианства и предшествующей деструкции классической западной метафизики, западного Логоса. Если мы минуем хайдеггеровский рубеж, стоящий между классической философией и объектно-ориентированной онтологии, мы не поймем, о чем говорит Харман. Но у Хармана специфическое прочтение Хайдеггера, цель которого как раз элиминировать то, что у Хайдеггера является основой.

· Создание искусственного интеллекта осуществляется через погашение или упразднение Дазайна. Если упразднить Дазайн (последнее человеческое, что еще остается в философии), можно прийти к господству машин. Машины это Дас Ман, они лишены Дазайна. Дас Ман и есть искусственный интеллект, это и есть мыслящий объект. Он заменяет экзистенциальное мышление на неаутентичное.

· При лишении Дазайна его онтологического и гносеологического статуса, становится возможным переход к искусственному интеллекту. Без Хайдеггера это понять невозможно – а если Хайдеггер демонизирован либеральной цензурой, то и этот новый постхайдеггерианский подход тоже будет никому непонятен, как гипнотизирующий сатанизм.

· Добро пожаловать в мир искусственного интеллекта. Сегодня он создается не только технологически, но, прежде всего, философски. И когда объектно-ориентированная онтология полноценно опишет и обоснует саму себя, тогда начнется эпоха искусственного интеллекта.

· Сегодня основной вопрос философии – об аутентичном или неаутентичном существовании, экзистировании Дазайна. С одной стороны, это битва за Дазайн, с другой – попытка упразднить его и утвердить онтологию мыслящего объекта. Это новая основа политической философии.

Источник

Искусственный разум: когда машины начнут думать как люди

Сможет ли компьютер научиться думать как человек? Этот вопрос возник одновременно с появлением первых вычислительных машин. В поиске ответа на него в 1950 году английский ученый-математик Алан Тьюринг предложил критерий, позволяющий судить о том, что компьютер по своим мыслительным способностям сравнялся с человеком. Этот критерий известен как тест Тьюринга: суть в том, что машина должна ответить на произвольные вопросы собеседника-человека таким образом, чтобы человек не понял, что общается с машиной.

Формально тест Тьюринга считается пройденным, правда, на довольно примитивном уровне сложности. Мыслить как человек компьютер пока что не умеет. Однако современный уровень технологических и вычислительных возможностей позволяет ему за считаные секунды обрабатывать и анализировать колоссальные объемы информации, обучаться на похожих данных, выявляя закономерности и обобщая полученные результаты. Это дает возможность решать конкретные практические задачи на уровне, все более близком к человеческому.

Что умеет ИИ

Хороший пример такой задачи — перевод текста с иностранного языка. С теоретической точки зрения эта задача во многом идентична оригинальному тесту Тьюринга. По мнению лингвистов, одна из функций языка — распознавание принадлежности собеседника к своей группе (именно этим объясняется изобилие местных диалектов, молодежных и профессиональных жаргонов). Если компьютер предложит перевод, неотличимый от речи носителя языка, то носитель наверняка признает в нем члена своей группы, то есть как минимум человека.

Два года назад компания Google почти полностью перевела свой сервис Google Translate на глубокое обучение (Deep Learning). В отличие от предыдущего поколения систем машинного перевода, которые в основном переводили отдельные слова и фразы, современные нейросети рассматривают предложение целиком, что позволяет переводить его не по значению, а по смыслу. Бурный рост объемов данных, в сборе которых участвуют многочисленные умные устройства интернета вещей (IoT), развитие многослойных нейронных сетей, алгоритмы Deep Learning и другие технологические возможности научили обычные компьютеры и мобильные устройства не только читать, слышать, видеть и понимать информацию, но и выполнять сложные задачи на таком же уровне, на котором их бы выполнил и человек.

Microsoft Bing в 2018 году практически безошибочно предсказал всех лауреатов премии «Оскар», просчитавшись всего в одном случае.

Искусственный интеллект уже активно применяется во множестве отраслей. Что же касается ИТ-компаний, то в них, наверное, не осталось областей, где бы он не использовался. Компания Mail.Ru Group реализовала машинное обучение практически во всех своих продуктах. Это автоматические ответы на письма в «Почте», компьютерное зрение в «Облаке», поиск и рекомендация товаров в сервисах электронной коммерции, таргетированный показ рекламы и многое другое. Компания Samsung разработала систему внутриигровой контекстной рекламы Gadget, в которой объявления не всплывают в виде раздражающих пользователя отдельных сообщений, а плавно встраиваются в игровой процесс. При этом тематика рекламы постоянно меняется в соответствии с предпочтениями геймера. На блокчейне разработана платформа Effect.Ai, которая будет связывать поставщиков и потребителей различных услуг напрямую, без посредников. Искусственный интеллект научился обыгрывать человека в покер и в Dota 2. Принадлежащая Google компания DeepMind, которой уже удалось создать искусственный интеллект, выигравший у чемпиона мира по игре го, сегодня разрабатывает алгоритмы, способные победить человека в игре StarCraft 2. Системы прогнозирования на базе ИИ все шире применяются в спорте и шоу-бизнесе. Так, искусственный интеллект Microsoft Bing в 2018 году практически безошибочно предсказал всех лауреатов премии «Оскар», просчитавшись всего в одном случае.

Неплохие достижения у ИИ в медицине. Появились системы, позволяющие на ранних стадиях диагностировать онкологические заболевания кожи, а также выявлять нарушения в работе сердца по ЭКГ с большей эффективностью, чем кардиолог. В Китае на базе ИИ реализован проект социальной направленности: разработчики создали систему, которая анализировала поведение пользователей в соцсетях и выявляла среди них тех, у кого были суицидальные наклонности, с целью оказать им своевременную психологическую помощь. На сегодняшний день с ее помощью удалось спасти уже более 20 000 человек.

Нейронные сети уже называют Software 2.0. В отличие от классического подхода к разработке (Software 1.0) они не требуют написания пошаговых инструкций для компьютера. Достаточно указать конечную цель (например, выиграть в го), а также задать структуру сети и сигналы для обучения. Далее нейросеть сможет выучить необходимые зависимости в данных для решения задачи, используя имеющиеся в ее распоряжении вычислительные ресурсы.

Чего не умеет ИИ

Что искусственный интеллект пока не умеет делать? В первую очередь это задачи, где сложно принять однозначное решение, где требуется контекстуальный подход в зависимости от условий и ситуации. ИИ не сможет самостоятельно осуществить научное открытие. Одним словом, везде, где нужен полноценный анализ ситуации, а не просто принятие решения, основанного на обучающей выборке данных, пальма первенства будет за человеком.

Конечно, технологии ИИ находятся на пике хайпа, однако нельзя не отметить определенные проблемы, риски и нерешенные задачи, связанные с ними. В первую очередь это, конечно, качество данных. Ведь оно напрямую зависит от того, что мы предоставляем машине в качестве обучающей выборки. Так, разрабатывая свою систему распознавания лиц на фото, Mail.Ru Group столкнулась с такой проблемой, как отсутствие качественных размеченных выборок с лицами азиатского происхождения, детскими лицами, а также фотографиями одних и тех же людей, сделанными в разные годы, по мере их взросления. В результате разработчикам пришлось формировать такие данные самостоятельно, что вылилось в немалые дополнительные затраты.

С 2009 года автомобили Google наездили в беспилотном режиме 3,7 млн километров на дорогах общественного пользования.

Хороший пример — разработка беспилотных автомобилей. По сути, здесь практически всегда используется метод supervised learning (обучение путем проб и ошибок). К примеру, компания Google потратила не один год на то, чтобы получить достаточный объем данных и учесть все нюансы беспилотной езды. С 2009 года автомобили Google наездили в беспилотном режиме 3,7 млн километров на дорогах общественного пользования и тестовых полигонах в Калифорнии, Аризоне, Техасе и Вашингтоне, а также более 1,6 млрд километров в режиме компьютерной симуляции. От качества этой работы зависит, насколько грамотно будет ориентироваться автомобиль без водителя на дороге, определять других участников дорожного движения, распознавать объекты на дороге, правильно реагировать на различные ситуации и т. д.

Еще один серьезный недостаток или скорее ограничение технологии искусственного интеллекта заключается в узком спектре применения каждого алгоритма. Для каждой отдельной операции или бизнес-процесса систему искусственного интеллекта приходится очень серьезно дорабатывать. Вряд ли под новую задачу получится адаптировать уже существующую нейросеть, пусть даже специализирующуюся на смежных задачах, поскольку данные будут отличаться. В большинстве случаев изменения будут весьма значительны. Например, сложно будет разработать на базе AI-системы беспилотного автомобиля систему управления беспилотным речным или морским катером. Это ключевая проблема так называемого «слабого» искусственного интеллекта, заточенного под решение конкретной задачи. В свою очередь, «сильный» искусственный интеллект, практическая реализация которого — вопрос будущего, должен уметь не просто алгоритмически оперировать данными и информацией, но понимать их смысл. Например, искусственный интеллект не умеет читать комиксы, не способен сопоставить все картинки с текстом в правильном порядке в соответствии с сюжетом, а с этой задачей справляются даже маленькие дети. Одним из важных шагов в сторону «сильного» ИИ можно назвать разработку капсульных нейронных сетей. Они обрабатывают информацию так, как это делает человеческий мозг, при этом не нуждаются в больших объемах данных для обучающих моделей.

Кто несет ответственность за решения, принятые искусственным интеллектом? Банк может заблокировать важную финансовую транзакцию, беспилотный автомобиль может сбить человека, не заметив его либо приняв за какой-то другой объект. Искусственный интеллект, управляющий системой банковского кредитного скоринга, чаще «отказывает» чернокожим заявителям, чем белым, в получении кредита. Системы распознавания лиц, которые используют в том числе и правоохранительные органы, неплохо различают белых людей, но часто ошибаются при обработке образов чернокожих, особенно женщин. Так, при распознавании лиц темнокожих женщин коммерческие системы ошибаются почти в 35% случаев. Если раньше в основе таких инцидентов был человеческий фактор, то сейчас это bias (искажение) в данных.

Нейросеть Deep Dream решила, что рука — это неотъемлемая часть гантели.

Разумеется, это временные проблемы, которые можно решить, предоставив системе более совершенную обучающую выборку данных. Над этим сегодня и трудятся разработчики. В автомобильной индустрии чаще всего отвечать приходится не разработчику AI-системы, а производителю транспортного средства, который установил ее на свою продукцию. Но в большинстве случаев бремя ответственности лежит и на разработчике, и на заказчике. В отличие от обычных систем, работающих в строгом соответствии с программным кодом, который можно проверить на ошибки, модифицировать и т. д., мы не всегда можем заранее предсказать, какой результат нам дадут многослойные нейронные сети и системы глубокого обучения после обработки того или иного массива данных. Так, нейросеть Deep Dream компании Google попросили генерировать изображение гантели. Система справилась с задачей, однако ко всем полученным изображениям гантели была добавлена и рука человека. Иными словами, нейросеть решила, что рука — это неотъемлемая часть гантели.

И все же технологии искусственного интеллекта уже сегодня в ряде случаев облегчают жизнь обычных людей и помогают компаниям в решении множества задач. Несмотря на существующие особенности и «подводные камни», системы на базе AI привлекают заказчиков, в том числе из крупного бизнеса. А многократно растущий с каждым годом объем инвестиций дает основания надеяться на существенный технологический рывок уже в ближайшем будущем.

Источник

Оцените статью
AvtoRazbor.top - все самое важное о вашем авто