Искусственный интеллект – для вашего бизнеса. Руководство по оценке и применению

Tekst
1
Recenzje
Przeczytaj fragment
Oznacz jako przeczytane
Czcionka:Mniejsze АаWiększe Aa

Роль больших данных

Первой из движущих сил, породившей огромный интерес и создавшей высочайшую активность в области искусственного интеллекта, является колоссальный объем данных, доступных в современном мире. Специалисты называют разные цифры, но все они сходятся на том, что объем данных, генерируемых человечеством, удваивается каждые два года. Это означает, например, что в 2022 году будет создано (или скопировано) 88 зетабайт (то есть 88 трлн гигабайт) данных. Для нашей темы это исключительно важно, потому что большая часть технологий искусственного интеллекта подпитывается массовыми данными – без них искусственный интеллект был бы бесполезен, как электростанция без топлива.

Чтобы обучить систему искусственного интеллекта (например, нейронную сеть) с той или иной степенью точности, требуются миллионы примеров, и чем сложнее модель, тем больше примеров необходимо. Вот почему крупные интернет-компании и социальные сети, такие как Google и Facebook, настолько активны в сфере искусственного интеллекта – именно у них в первую очередь достаточно данных для такой работы. Поиски, выполняемые с помощью Google, создают около 3,5 млрд запросов в день, а публикации в «Фейсбуке» ежедневно обновляют 421 млрд статусов, загружают 350 млн фотографий и генерируют почти 6 трлн «лайков» – так вот и возникает топливо для этих систем. Один только Facebook формирует около 4 млн гигабайт данных каждые 24 часа.

Этот огромный объем данных используется искусственным интеллектом для создания тех или иных «ценностей» – в самом широком понимании. Воспользуемся снова простым примером, который я использовал в предыдущей главе: когда систему DNN обучают распознавать изображения собак. Чтобы научить систему, вам понадобится множество изображений собак, помеченных для системы как «собака», и такое же множество других изображений, где собаки отсутствуют и которые, соответственно, помечены как «собак нет». Только после того, как система научится распознавать собак с использованием исходного набора данных и пройдет этап предварительной проверки, на котором алгоритм дополнительно настраивается с использованием обучающих данных, разбитых на подмножества, систему можно (и нужно) протестировать на «чистом», то есть немаркированном наборе изображений.

Не существует строгих указаний относительно того, сколько именно данных необходимо для подобного тестирования, но, как правило, потребность в обучающих данных составляет около 30 % от общего массива.

Огромные объемы данных, которые мы постоянно создаем, используются в компьютерном мире каждую минуту и большей частью без нашего ведома, но с нашего согласия (как правило, невольного или неявного). Взять, к примеру, ваши поиски в Google. Когда вы вводите поисковый запрос, вы периодически пишете слова неправильно, или с ошибками, или не вполне стандартным (например, просторечным) образом. В ответ на это Google обычно предлагает вам результаты, основанные на правильном, или более распространенном, или более литературном написании этого слова. Скажем, если я пишу «Эндрю Дерджесс» (англ. Andrew Durgess), Гугл показывает мне результаты для Эндрю Берджесса (англ. Andrew Burgess), хотя я могу заставить его выполнить поиск именно для написанного мной варианта. Это означает, что Google постоянно собирает данные о версиях слов с ошибками и, что еще важнее, о том, какие предлагаемые системой исправления являются приемлемыми для пользователя, а какие – нет. Все эти данные затем используются для настройки проверки орфографии с помощью искусственного интеллекта. Но если, как в моем примере, существует реальный человек по имени Эндрю Дерджесс, который завтра внезапно станет знаменитым, то множество людей бросятся искать информацию о нем, и Google быстро отменит исправление «Эндрю Берджесс», поскольку все меньше и меньше людей принимают его и вместо этого выберут поиск: «Эндрю Дерджесс, точно как написано».

Экспоненциальный рост объема данных происходит сейчас не только в социальных сетях и поисковых системах. Все больше и больше нашей коммерческой деятельности осуществляется в интернете или обрабатывается с помощью корпоративных систем, что создает огромный поток информации. Так, в секторе розничной торговли для создания новых данных нам совершенно необязательно совершать покупки именно онлайн. Даже когда наша покупка регистрируется в обычном магазине (причем здесь нет даже необходимости фиксировать наше имя), розничные компании смогут использовать эти данные для прогнозирования тенденций спроса и выбора товаров, что уже помогает им оптимизировать цепочку поставок. А когда эти покупки удается связать с отдельным клиентом (например, с помощью карты постоянного покупателя или учетной записи в интернете), данные становятся гораздо информативнее и, следовательно, намного ценнее. Теперь фирма может предсказывать, какие еще товары или услуги вы также можете купить на ее торговых площадках, и будет активно их вам предлагать. Если вы совершаете покупки в интернете, то записываются не только данные о самих покупках: каждая посещенная вами страница, время, которое вы проводите на них, просмотренные вами продукты – все это отслеживается, увеличивая объем и ценность данных, «скармливаемых» искусственному интеллекту.

Как только покупка совершена, торговая компания тут же начнет создавать и собирать новые данные и извлекать из них ценность. Каждый раз, когда вы взаимодействуете с продавцами через веб-сайты, контакт-центры или оставляете отзыв у них на сайте или через сторонние агрегаторы (либо социальные сети), вы сами создаете все больше полезных для них данных. Даже бытовое использование продуктов или услуг, подключенных к интернету или зарегистрированных онлайн, создаст дополнительные сведения, выгодные для коммерции. Например, телекоммуникационные компании будут использовать данные о любой вашей сетевой активности и взаимодействиях, чтобы с помощью искусственного интеллекта попытаться предсказать, не захотите ли вы (и если захотите, то как скоро) перейти от них к конкуренту. Данные для обучения искусственного интеллекта поступают даже от клиентов, которые фактически расторгли контракты (то есть в одностороннем порядке перестали пользоваться услугами): искусственный интеллект использует эти сведения для определения всевозможных факторов, формирующих отток клиентов, и затем применяет их для анализа активности и особенностей поведения существующих клиентов. Аналогичным образом банки могут выявлять мошеннические транзакции на вашем счету благодаря тому, что у них имеется множество обработанных данных о подлинных, сомнительных и откровенно нелегальных транзакциях по различным счетам: ведь ежедневно в мире совершается около 300 млн транзакций по кредитным и дебетовым картам.

Другим источником больших данных являются всевозможные текстовые документы: газеты, книги, технические документы, сообщения в блогах, электронные письма и т. д. Еще одну группу составляют генетические и биомедицинские данные (рентген, пьезоэлектрическая и магнитно-резонансная томография, ультразвуковая диагностика и т. д.), климатические и метеорологические показатели (температура, влажность, давление, ветер, содержание кислорода и т. д.).

Там же, где данных не существует, они создаются целенаправленно. Обучающие наборы данных специально собираются или разрабатываются для самых распространенных или насущных задач, где можно применить искусственный интеллект. Например, чтобы распознавать числа в рукописном виде, американский Национальный институт стандартов (National Institute of Standards) создал базу данных (MNIST), содержащую 60 000 образцов рукописных цифр и 10 000 тестовых образцов. Существуют аналогичные базы данных для распознавания лиц, аэрофотоснимков, новостных статей, речи, для отслеживания движения, для диагностики биологических и антропометрических параметров и многого другого. Они незаменимы для разработки самых актуальных и необходимых приложений для машинного обучения.

Еще один интересный аспект, касающийся лавинообразного накопления и использования данных, заключается в том, что они прямо на наших глазах ставят привычные бизнес-модели с ног на голову. Google и Facebook не создавались в качестве компаний, занимающихся сбором данных и использованием искусственного интеллекта, но они быстро превратились именно в таких бизнес-гигантов. А сейчас для сбора данных специально создаются новые компании, которые используют для получения информации другие (обычно бесплатные) сервисы. Хорошим примером целенаправленного сбора и использования данных для доброго дела является деятельность компании Sea Hero Quest. На первый взгляд, их сервис очень похож на игру для мобильного телефона, но на самом деле он использует данные о том, как люди играют на телефоне или планшете, чтобы лучше понять природу старческой деменции и, в частности, разобраться в том, какие особенности существуют в нарушениях пространственной навигации в разрезе возраста, пола и географии. На момент написания книги в игровом сервисе приняло участие 2,7 млн человек, и это крупнейший проект по исследованию деменции в истории. Коммерческие предприятия используют аналогичный подход: они создают «фасадные» продукты или услуги, которые на самом деле существуют только для сбора ценных данных, реально использующихся совсем в других целях.

Роль дешевых носителей информации

Все создаваемые данные, естественно, должны где-то храниться. Это подводит нас ко второму «ускорителю» прогресса в области искусственного интеллекта – быстро снижающейся стоимости носителей информации в сочетании со все увеличивающейся скоростью доступа к данным и миниатюризации устройств, на которых они хранятся.

В 1980 году хранение одного гигабайта информации стоило в среднем 437 500 долларов США. Пять лет спустя эта сумма упала почти на ¾, а к 1990 году она понизилась до 1/40 цены 1980 года (11 200 долларов). Но это было только начало. На рубеже веков хранилища для одного гигабайта стоили уже не более 11 долларов, в 2005 году – 1,24 доллара, а в 2010 году – 9 центов. В 2016 году стоимость хранения данных опустилась до уровня менее 2 центов за гигабайт (0,019 доллара).

 

Данные, генерирующиеся через Facebook (в соответствии с той скоростью, о которой я писал выше), требуют хранилища объемом 300 петабайт (300 млн гигабайт), хотя фактический объем хранящихся данных меньше изначального благодаря сжатию. Облачные веб-сервисы Amazon, вероятно, имеют еще большие резервы памяти, чем Facebook (хотя точное сравнение здесь затруднительно). Такие колоссальные объемы хранилищ существуют именно потому, что цена хранения не превышает 2 центов за гигабайт.

Сократилась не только цена носителей, но и их размер. У меня есть фотография 1956 года – я использую ее в некоторых своих выступлениях; на ней видно, как жесткий диск IBM помещают в самолет с помощью автопогрузчика. Размер этого «диска» сравним с большим сараем при емкости всего 5 Мб. Сегодня такого объема памяти хватит лишь на одну песню в формате MP3. Компания Amazon располагает целым парком грузовых автомобилей, которые, по сути, представляют собой огромные передвижные хранилища информации, каждое из которых способно содержать до 100 петабайт данных (при том что данные всей сети интернет составляют в сумме «лишь» 18,5 петабайт). В момент написания этой книги IBM как раз объявила, что ей удалось научиться хранить информацию на носителях размером с один атом! Если этот подход получится использовать в промышленных масштабах, то, скажем, вся библиотека iTunes, содержащая 35 млн песен, сможет храниться на устройстве размером с обычную банковскую карту.

Роль высокоскоростных процессоров

Дешевое и компактное хранилище для массовых данных – прекрасная новость для разработчиков искусственного интеллекта, который живет только за счет больших объемов информации, о чем мы уже рассказывали выше. Однако все эти данные нужно еще и обрабатывать. Следовательно, третий участник современного бума в области искусственного интеллекта – это высокоскоростные процессоры.

Вспомним так называемый закон Мура – его постоянно цитируют в мире электроники. Основатель компании Intel Гордон Мур еще в 1965 году предсказал, что число транзисторов, которые могут поместиться на кристалле микросхемы, будет удваиваться каждый год. В 1975 году он пересмотрел этот «закон удвоения» на каждые два года. На самом деле наиболее часто цитируемую версию закона сформулировал Дэвид Хаус, тогдашний руководитель Intel: он предположил, что производительность любой микросхемы («чипа») в результате увеличения числа входящих в нее транзисторов и повышения скорости их работы будет удваиваться каждые 18 месяцев. И хотя периодически наблюдаются отклонения от этой тенденции (особенно в последние несколько лет), используемые сегодня процессоры несомненно на несколько порядков быстрее тех, которые существовали во время последнего «ледникового периода» искусственного интеллекта.

Забавный момент: наиболее типичные центральные процессоры компьютеров подходят для обработки больших наборов данных отнюдь не идеально. Гораздо эффективнее эту функцию выполняют так называемые графические процессоры («видеокарты»), которые были разработаны для визуализации процессов на мониторе и сильно усовершенствовались в связи с появлением различных задач (в частности, компьютерных игр), требовательных к качеству отображения видеопотока. Поэтому сейчас большую часть рынка компьютерных чипов для искусственного интеллекта заняла компания NVidia, один из основных производителей графических процессоров в мире.

Таким образом, скоростные процессоры позволяют искусственному интеллекту справляться со сложными задачами, используя большие объемы данных. Это крайне важно, потому что для управления всеми этими данными и их обработки требуется время. Системы искусственного интеллекта хорошо справляются со второй частью процесса – оценкой и принятием решений на основе уже сформированных алгоритмов, но обучение, требующее анализа множества данных, оказывается куда более сложной задачей. Даже относительно простое обучение может заставить компьютер работать на полную мощность целую ночь, а более сложные «уроки» могут занимать по несколько дней. Таким образом, любое повышение скорости процессора чрезвычайно важно для эффективной работы искусственного интеллекта как при первоначальной разработке и проектировании алгоритмов, так и в повседневной работе, в особенности с учетом того, что алгоритмы постоянно усложняются. Возможность проводить обучение и принимать решения в режиме реального времени – один из последних рубежей для искусственного интеллекта. После его преодоления вряд ли что-то помешает повсеместному использованию ИИ во всех областях нашей жизни.

Объединяющая роль сети

Последний фактор быстрого развития искусственного интеллекта – это формирование общепланетарной системы компьютерной связи. Разумеется, интернет оказал и оказывает огромное влияние на получение и использование данных, но только в последние несколько лет кабельные и беспроводные сети стали достаточно быстрыми, чтобы обеспечить распределение больших объемов данных между серверами и периферийными устройствами. Для искусственного интеллекта это означает, что большая часть ресурсоемкой обработки данных в реальном времени может выполняться на центральных серверах, а пользовательские устройства могут просто выступать в качестве внешнего интерфейса. Apple Siri (на iPhone) и Amazon Alexa (на Echo) являются прекрасными примерами реализации деятельности искусственного интеллекта, при которой для выполнения самой тяжелой работы используются гигантские вычислительные мощности в центрах обработки данных. Это означает, что процессоры пользовательских устройств нагружаются гораздо меньше, зато требуется высокая скорость и пропускная способность сетей связи для эффективного приема исходных данных от пользователей и передачи им обработанных данных.

Дело тут не только в обработке данных в режиме реального времени. Обучение искусственного интеллекта тем или иным алгоритмам и моделям, обычно занимающее дни, может быть значительно ускорено с помощью облачных технологий, основанных на специализированном оборудовании. А это опять-таки требует быстрой передачи данных «в облако» и обратно.

Более совершенные сети связи могут помочь системам искусственного интеллекта и другими способами. Наборы данных, о которых я упомянул в предыдущем разделе, огромны, но теперь они стали доступны для многих пользователей, чтобы помочь им в обучении собственных систем; раньше это едва ли было возможно.

Кроме того, различные системы искусственного интеллекта могут связываться друг с другом через интернет и свободно обмениваться «знаниями». Так, программа, управляемая консорциумом Стэнфордского университета, Калифорнийского университета (Беркли), Университета Брауна и Корнелльского университета, называемая Robobrain, использует общедоступные данные (тексты, звуки, изображения, фильмы) для обучения систем искусственного интеллекта, к которым могут обращаться и другие аналогичные системы. И наоборот, системы «получателей» будут возвращать все, что они «познают», в Robobrain. Задача Robobrain состоит в том, чтобы преодолеть общую современную проблему искусственного интеллекта – узость и чрезмерную специализированность каждой конкретной системы. Иначе говоря, Robobrain пытается стать «всем для всех» в мире робототехники. На специфическом языке компьютерщиков это называется мультимодальностью.

Искусственный интеллект «в облаке»

Четыре движущие силы, о которых мы рассказали выше, еще никогда и нигде не объединялись вместе с таким эффектом, как это произошло в концепции «облачного» искусственного интеллекта. Реализация идеи, согласно которой ИИ работает в облачной системе по запросам, является в настоящее время главным «катализатором» распространения искусственного интеллекта на все сферы и во все слои общества. У многих крупных технологических компаний, таких как Google, IBM и Amazon, есть облачные решения для искусственного интеллекта, которые предлагают легкодоступные API-интерфейсы (интерфейсы прикладного программирования, по сути стандартизированные точки доступа к инструментам программирования) для разработчиков интерфейса искусственного интеллекта. Например, платформа IBM Watson – высокотехнологичный искусственный интеллект-ресурс – представляет собой просто серию API, каждый из которых выполняет определенную функцию, такую как распознавание речи или генерация вопросов и ответов.

Google TensorFlow – еще одна платформа искусственного интеллекта с открытым исходным кодом, которая предлагает аналогичные возможности плюс некоторые дополнительные функции, например, библиотеку предварительно обученных алгоритмов.

Что это означает для бизнеса и в особенности для того предпринимателя, который желает внедрить в свое дело искусственный интеллект или даже основать на этой технологии новую фирму? Главная проблема заключается в том, что выгода, получаемая от искусственного интеллекта, будет не совсем такой (или совсем не такой), как предполагают исходные алгоритмы.

Поясним это. Если бы каждый новый бизнес, ориентированный на обслуживание клиентов, использовал алгоритм распознавания речи с открытым исходным кодом, скажем, от Amazon, то конкурентное преимущество должно было бы заключаться в качестве данных, используемых для обучения системы, в способе обучения алгоритма или в том, насколько удобна итоговая система в использовании. Действительно, когда вы подключаетесь к одному из API-интерфейсов IBM Watson, вам еще придется проделать большую работу для его обучения, прежде чем вы сможете получить реальную выгоду от его использования.

Таким образом, некоторые предприниматели смогут получить конкурентное преимущество, применяя ими же обученные ИИ-алгоритмы, но при этом им придется конкурировать с другими фирмами, которые используют уже готовые приложения для искусственного интеллекта. Скажем, лично я могу попросту загрузить бесплатный алгоритм с открытым исходным кодом с веб-сайта какого-нибудь университета (я использовал сайт Стэнфорда) для распознавания объектов, помеченных теми или иными тегами: такие алгоритмы применяют для извлечения различных стандартизованных данных – имен людей, адресов, дат. Затем я могу послать образец текста и получить от ИИ более или менее разумный ответ. Но это все еще не жизнеспособное решение, пригодное на все случаи жизни, не говоря уже о его коммерческом использовании. Чтобы сделать его полезным для бизнеса, мне нужно обучить и настроить алгоритм, используя как можно больше данных, и создать удобный пользовательский интерфейс. Именно здесь и вступают в игру реальные навыки управления искусственным интеллектом: умение научным образом оперировать данными, знание отладки и оптимизации программ, опыт создания пользовательских приложений. Сначала соберите все это вместе, и только потом вы сможете надеяться на успешное развитие бизнеса.

Для руководителя, желающего использовать искусственный интеллект в своем бизнесе (тот факт, что вы читаете эту книгу, возможно, говорит о подобном желании), важно понять, как именно искусственный интеллект создает определенные коммерческие ценности. Продукты, связанные с искусственным интеллектом, сейчас создают очень и очень многие. Как выбирать из множества вариантов, если все заявляют, что их разработки не хуже любых других? Как добраться до сути различий? Зависят ли они от алгоритма, характера данных, простоты реализации, быстроты обучения, удобства использования и т. д.? Ответы на эти вопросы позволят сделать правильный выбор, подходящий именно вам. Множество компаний занимается разработками в области искусственного интеллекта, основанными исключительно на алгоритмах с открытым исходным кодом. В этих компаниях почти всегда работают весьма умные люди, но, как правило, им всем недостает опыта. Сейчас, на подъеме интереса к искусственному интеллекту, среди поднятой вокруг него шумихи, они могут получить определенный коммерческий успех, но они мало на что способны в долгосрочной перспективе. Я хочу сказать, что с помощью ИИ, основанного на прекрасных алгоритмах с открытым кодом, вы, конечно, можете создать успешный бизнес, но и все остальные аспекты вашего предприятия тоже должны быть выстроены правильно. Как я уже сказал ранее: не верьте рекламе.

Позже в этой книге я более подробно изложу соображения, связанные с проблемой выбора. Также мы поговорим о том, как покупать ИИ-продукты и создавать из них коммерческую платформу.