У будь-якій книжці завжди варто дивитися на автора. Це дає розуміння, чого можна чекати, якого рівня, глибини володіння предметом. Бентлі - експерт із ШІ, популяризатор науки. Тобто, не розробник, не експлуататор, не академічний дослідник. Скоріш за все, журналіст за освітою і професією .
Це несистематизований набір популярних нарисів про різні види моделей, схем і алгоритмів які намагаються наслідувати ті чи інші функції людського інтелекту. Тут немає нічого про чат GPT, хоч згадка про лінгвістичні моделі є. Судячи з усього, при написанні цієї книжки штучний інтелект не застосовувався.
Що більш всього вразило? Слова Річарда Фейнмана (див. у
цитатах). Створюючи машини, людина заглиблюється і в розуміння самої себе,
відкриває себе. Що непокоїть у зв’язку із ШІ? Машини підбираються до Емоцій, а
це буде ще крутіше за інтелект. Це вже за крок до людської подоби. Ми за декілька
кроків до реального Інформаційного моделювання особи. А це можуть бути не лише дорогі,
близькі люди чи прозорливі Ейнштейни, але й Гітлери, Сталіни, Путіни і т.п.
нечисть. Та все ж шлях до машинного клонування ще довгий. Машина має навчитись
створювати динамічні моделі об’єктів, як це робить людина. Що непокоїть вже
зараз, – перекладання все більшого обсягу функцій на машину веде до деградації
відповідних функцій у людини. Людина змінюється невпізнанно на очах.
У кінці є непоганий список літератури по темі. Книжка - не шедевр,
але для загального розвитку можна переглянути.
Тьюринг решил, что необходим метод оценки способности
машины думать. Он назвал его «Игра в имитацию», но более известен этот метод
как тест Тьюринга.
ТЕСТ ТЬЮРИНГА
Опросчик может взаимодействовать с двумя собеседниками –
каждый из них в отдельной комнате – и задавать им любые вопросы, печатая их:
«Пожалуйста, напишите стихотворение о мосте через Форт» или «Что получится,
если к 34 957 прибавить 70 764?» Затем опрашиваемые вводят свои ответы. Через
некоторое время опросчику сообщают, что один из его собеседников на самом деле
компьютер. Если компьютер не удается отличить от реального человека, значит,
компьютер прошел тест.
Теоретически это возможно – построить мозг, который смог бы
воспроизводить сам себя на конвейере и осознавать свое собственное
существование.
ФРЭНК РОЗЕНБЛАТТ (1958)
исследователи лихорадочно работали над проектами машинного
перевода и искусственных нейронных сетей.
исследователи недооценили многозначность слов – тот факт,
что их значение зависит от контекста. В результате в 1960-х годах ИИ допускал
весьма досадные ошибки. Так, при переводе с английского на русский и обратно «с
глаз долой – из сердца вон» превратилось в «слепой идиот».
Консультативный комитет заключил, что машинный перевод хуже
человеческого и к тому же значительно дороже. После публикации этого отчета
Национальный исследовательский совет, уже потратив к тому моменту 20 миллионов
долларов, прекратил финансирование исследований в области машинного перевода в
США.
Последней каплей стала книга Марвина Мински и Сеймура
Пейперта «Перцептроны», опубликованная в 1969 году, в которой были описаны
многие ограничения модели простого нейрона. Это положило конец исследованиям
нейронных сетей.
Выводы были неутешительными: «Большинство исследователей,
начавших работать в этой области около десяти лет назад, признаются, что тогда
они испытывали своего рода наивный оптимизм, который теперь считают неуместным…
успехи в создании роботов общих типов не привели к достижению грандиозных целей».
Управление перспективных исследовательских проектов
Министерства обороны США сократило финансирование работ, касающихся ИИ,
поскольку осознало, что обещанные результаты в такой области, как распознавание
речи, не достигаются.
Идея ИИ и создания интеллектуальных роботов была полностью
дискредитирована. Так наступила первая зима ИИ.
В конце концов к 1980-м годам в области исследований ИИ
наметился новый прорыв – экспертные системы. Эти новые алгоритмы ИИ включили в
себя знания людей – экспертов в различных системах, основанных на
правилах, – и могли выполнять такие задачи, как идентификация неизвестных
молекул или диагностика заболеваний.
Вскоре экспертные системы были внедрены во многие отрасли
промышленности и бизнес начал процветать. Так исследования ИИ снова получили
финансирование.
Но продолжался очередной взлет недолго. Мощность обычных
компьютеров быстро превысила мощность интеллектуальных систем, и компании,
занимавшиеся аппаратным оборудованием для ИИ, обанкротились. Затем выяснилось,
что экспертные системы крайне сложны в обслуживании и подвержены серьезным
ошибкам при неправильном вводе данных. Обещанные возможности ИИ вновь не были
реализованы. Промышленность отказалась от этой новой технологии, и
финансирование опять прекратилось. Наступила вторая зима ИИ.
поскольку в 1990-х годах даже сам термин «искусственный
интеллект» ассоциировался с неудачей, его часто пытались замаскировать под интеллектуальные
системы, машинное обучение, современные эвристические методы.
вскоре началась тихая революция, принесшая с собой более
продвинутую нечеткую логику (см. главу 9), новые, более мощные, типы нейронных
сетей, более эффективные оптимизаторы и все более результативные методы
машинного обучения.
К 2029 году компьютеры будут обладать интеллектом,
сопоставимым по уровню с человеческим.
РЭЙМОНД КУРЦВЕЙЛ, изобретатель и футуролог (2017)
Прошлый, 2019, год стал летом для исследований ИИ: тысячи
ИИ-стартапов по всему миру продемонстрировали новые способы применения ИИ. Все
крупные технологические компании (Apple, Microsoft, Google, Amazon, Weibo,
Huawei, Samsung, Sony, IBM – список кажется бесконечным) инвестировали десятки
миллиардов долларов в исследования ИИ и робототехники. Впервые продукты на базе
ИИ стали доступны широкой публике:
мы должны уметь ориентироваться на минном поле рекламной
шумихи и неуместных ожиданий, одновременно учась принимать ИИ и роботов в нашу
жизнь.
Успешное создание ИИ станет важнейшим событием в истории
человечества. К сожалению, оно может оказаться последним, если мы не научимся
избегать рисков.
СТИВЕН ХОКИНГ (2014)
Я никогда не предполагаю. Эта возмутительная привычка
разрушительна для логики.
АРТУР КОНАН ДОЙЛ
Символический ИИ позволяет компьютерам мыслить словами.
Эти исследователи показали, что вся математика может быть
сведена к логике.
Мысль была неосязаемой и невыразимой, пока современная
формальная логика не стала интерпретировать ее как манипуляцию формальными
символами.
АЛЛЕН НЬЮЭЛЛ (1976)
считали, будто символическая логика – это все, что нужно
для интеллекта.
Это убеждение было основано на идее, что человеческий разум
лишь манипулирует символами.
Другими словами, человек должен брить сам себя и он не
может брить сам себя одновременно – это парадокс.
Серл утверждал, что именно это и делает ИИ, когда выполняет
обработку символов. Он манипулирует ими в соответствии с установленными
правилами, но никогда не понимает, что эти символы и правила значат.
ИИ не знает, что означает «желтый». Он не видит связи между
символом «желтый» и внешним миром, поскольку не знает, что такое внешний мир, и
ИИ никогда не удастся получить какой-либо жизненный опыт.
Такой ИИ не обладает интенциональностью – способностью
принимать решение на основе собственного понимания. Поэтому Серл утверждал, что
ИИ просто симулирует интеллект. «Формальные символьные манипуляции сами по себе
не обладают интенциональностью; они совершенно бессмысленны, – писал
он. – Эта интенциональность, которой, как считается, обладают компьютеры,
находится исключительно в умах тех, кто эти компьютеры программирует,
использует, вводит в них данные и интерпретирует данные на выходе».
Ни одна логика не является достаточно сильной, чтобы поддерживать
общую конструкцию человеческого знания.
ЖАН ПИАЖЕ, психолог
Создайте набор правил о соответствии медицинских симптомов
и различных заболеваний. Тогда компьютер сможет задать ряд вопросов, например
«вы чувствуете боль?», «это острая боль или тупая?», «где локализуется боль?» и
так далее, которые выявят симптомы, и в результате предложить одну или
несколько версий вероятных заболеваний.
Подобные версии ИИ известны как экспертные системы, и на
какое-то время они стали чрезвычайно популярны
они продолжают использоваться в медицине для диагностики,
системах поддержки для автомобильных инженеров, системах обнаружения
мошенничества и интерактивных сценариях для продавцов.
сэр Тим Бернерс-Ли, создатель Всемирной паутины, давно
высказал идею, что WWW (World Wide Web) должна стать GGG (Giant Global
Graph) – гигантским глобальным графом[6] данных. То есть помимо того, что
веб-сайты стоит делать удобными для пользователей, на них также необходимо хранить
данные в форме, понятной компьютерам.
В мечтах же Бернерса-Ли внутри каждой веб-страницы данные
поименованы и имеют уникальные идентификаторы. В семантической паутине
веб-сайты становятся базами данных сведений, где каждый элемент является
самостоятельным объектом, который может быть найден независимо и имеет четкую
текстовую метку или тип. Если вся WWW станет GGG, то наши ИИ смогут искать
знания всего мира, рассуждать о них и делать выводы.
У меня есть мечта…[7] Машины смогут анализировать все
данные в сети… сегодняшние механизмы торговли, бюрократии и повседневной жизни
будут управляться машинами, разговаривающими с машинами, оставив людям
вдохновение и интуицию.
ТИМ БЕРНЕРС-ЛИ (2000)
Таким было состояние робототехники в 1972 году. Шейки (чей
мозг создавался на основе большого компьютера) мог использовать камеру, чтобы
распознавать простые объекты вокруг себя, строить модель своего примитивного
мира и планировать, куда идти и что делать, а также прогнозировать, как его
действия будут менять эту его внутреннюю модель.
возникло желание внести немного беспорядка в логичный и
понятный подход к робототехнике. И это привело к разделению исследователей на
два лагеря: «чистюль» и «грязнуль».
«чистюли» предпочитали тщательно разработанные и математически
выверенные методы, «грязнули» заявляли, что такие методы работают лишь в
искусственно созданном мире.
Умение хорошо играть в шахматы не поможет вам ходить,
избегать препятствий или справляться с постоянно меняющимися условиями нашей
действительности.
Брукс назвал свой подход «предикативной архитектурой». В
соответствии с ним поведением робота управляет ряд простых модулей, каждый из
которых прерывает другого, если его потребности становятся первоочередными. К
примеру, один робот отвечает за перемещение робота к цели, другой – за
преодоление препятствий. Первый будет иметь приоритет, пока не возникнет что-то
неожиданное и второй модуль не перехватит контроль. Брукс представлял
поведение, используя системы с конечным числом состояний.
Мы утверждаем, что идея символьной системы, на которой
основан классический ИИ, в корне неверна.
РОДНИ БРУКС (1990)
Предикативная архитектура позволила марсоходу
самостоятельно выполнять навигацию, обнаруживать опасности и избегать их.
Ни один робот с искусственным интеллектом не может ходить
по дому, ни во что не врезаясь и не падая.
В настоящее время все беспилотные автомобили требуют
постоянного контроля со стороны водителя-человека, который возьмет на себя
управление, если ИИ запутается. Владельцы подобных транспортных средств иногда
не понимают этого, что уже привело к нескольким смертельным случаям.
несчастные случаи поднимают вопрос об ответственности. Если
вы не управляли автомобилем, когда тот повредил другой при столкновении, тогда
кто же виноват и должен отвечать – вы или разработчик ИИ вашего автомобиля?
Ведь если полностью автономное такси вызвало аварию, в результате которой
получили травмы или погибли люди, вряд ли можно подать в суд на пассажиров
такого такси.
Запуск технологии автономного вождения неизбежно приводит к
снижению нашего мастерства вождения, делает людей-водителей менее способными, а
дороги – менее безопасными. И если через несколько лет полностью автономные
машины будут усовершенствованы, увидим ли мы детей, играющих в «останови
машину» – поднимающих ногу и заставляющих ИИ предположить, что они
собираются перейти дорогу? А как это повлияет на рабочие места?
К 2030 году до 20 миллионов рабочих мест по всему миру
могут быть заменены роботами.
OXFORD ECONOMICS (2019)
люди создают новые технологии на протяжении тысячелетий.
Каждый раз, когда это происходит, виды деятельности, которые зависели от
предыдущих технологий, устаревают. Но каждое изобретение может привести к
созданию совершенно новой отрасли.
для производства и обслуживания этих значительно более
сложных машин. (Не говоря уже об адвокатах, необходимых для ведения запутанных
судебных процессов.)
Симс использовал генетический алгоритм,
генетическому алгоритму пришлось развивать как тела, так и
мозг виртуальных существ. Симс даже не знал, как работала программа.
Симс. – Если бы я сам попытался соединить эти датчики,
нейроны и эффекторы, то, возможно, никогда бы не нашел хорошее решение, но
эволюция все еще способна его отыскать».
специалисты, предпочитающие эволюционный подход, создают
виртуальный мир и позволяют компьютеру находить решение самостоятельно,
генерируя все лучшие и лучшие его варианты. Генетический алгоритм – один из инструментов
такого подхода. Он работает, создавая случайную совокупность довольно
бесполезных решений, ранжируя их по степени соответствия (того, насколько
хорошо они решают проблему) и позволяя развиваться только наиболее подходящим.
Алгоритм муравьиной колонии определяет оптимальный маршрут
для водителей службы доставки подобно тому, как муравьи учатся находить
кратчайший путь между едой и своим домом.
Система управления, которая когда-нибудь и в самом деле
сгенерирует «разумное» поведение, может оказаться полнейшей путаницей за
пределами нашего понимания.
КАРЛ СИМС (1994)
Дарио Флореано – один из немногих пионеров в этой области.
Он заставил эволюционировать схему из моделей нейронов, чтобы мозги у его
роботов создавались автоматически.
ИИ может обладать гораздо более широким спектром чувств по
сравнению с нами.
это абстрактная идея искусственного нейрона, который ведет
себя как математическая функция. Когда ему дают одно или несколько числовых
значений на входе, он объединяет их с текущим состоянием и производит
вычисление, используя математическую функцию, известную как функция активации.
Мински продолжил свою работу в этой области, издав книгу
«Перцептроны» в соавторстве с Сеймуром Пейпертом. Эта книга явилась
фундаментальным достижением в анализе искусственных нейронных сетей, а также в
ней подверглась критике работа Розенблатта.
Нейронные сети учатся, изменяя приоритетность связей между
нейронами, делая некоторые из них более важными, а другие менее – в зависимости
от различных входных условий. После оптимизации веса соединений (значение,
которое указывает на важность каждого звена) и предпочтения (еще один способ
изменения эффекта функции активации) таким образом, чтобы нейрон выводил
правильный ответ при получении обучающих данных, в результате получается
обученная нейронная сеть, которая ведет себя корректно и для новых входных
данных, с которыми она раннее не сталкивалась.
Такие сети называются сетями с прямой связью, поскольку каждый
слой нейронов подключается к следующему уровню, а не к предыдущему.
К 2012 году компьютеры превзошли человеческое зрение: они
смогли распознавать объекты на изображениях со сверхчеловеческой точностью.
Сверточные нейронные сети теперь настолько умны, что нам больше не нужно
сначала вычислять объекты на изображениях. Нейронные сети все делают сами.
Мозг точно не работает, когда кто-то программирует его по
правилам.
ДЖЕФФРИ ХИНТОН (2017)
появляются новые виды нейросетей, например капсульные. Они
привносят в сверточные нейронные сети иерархическую структуру, вдохновленную
биологическими примерами, делая их еще более мощными.
К сожалению, предубеждения все еще распространены в нашем
обществе. В классных комнатах и университетских лекционных залах, где изучают
компьютерные науки и инженерию, по-прежнему преобладают студенты мужского пола,
причем эта тенденция не меняется уже несколько лет. В результате становится все
больше мужчин – исследователей ИИ. Но пришло время восстановить баланс!
Сегодня алгоритмы «дипфейк» (deepfake: deep – «глубокий» и
fake – «подделка») легко могут заменить лицо одного человека лицом другого в
видео, что широко используется в порнографии. Эта технология применяется также
с целью мошенничества или для манипулирования в политике.
Отличить факт от фикции никогда еще не было так сложно. В
США это привело к принятию новых нормативных актов: Акта о запрете
злонамеренных дипфейков, рассмотренного Сенатом США в 2018 году, и Акта об
ответственности за дипфейки, рассмотренного Палатой представителей в 2019 году.
хотя мы можем соединить сети способами, напоминающими связи
в зрительной коре, искусственные нейронные сети пока не дотягивают до уровня
нейронных сетей живых организмов.
По-настоящему образованный человек – это тот, кто научился
тому, как учиться и меняться.
КАРЛ РОДЖЕРС
В ИИ самообучение по очевидным причинам часто называют
неконтролируемым, или обучением без учителя. Эти ИИ не «отправляются в школу»
для интенсивных тренировок, как это происходит, если процесс идет под
наблюдением. В случае неконтролируемого обучения ИИ получает данные, которые
затем должен будет понимать самостоятельно.
Объединение достаточного количества данных от тысяч или
даже миллионов потребителей порой ведет к удивительно предсказуемым
рекомендациям. Такой подход известен как совместная фильтрация, и он
предполагает использование алгоритмов кластеризации для группирования людей.
компания Uber встроила в свое приложение правило, согласно
которому рост спроса приводил к автоматическому увеличению цен на поездки. Это
могло бы стать очень хорошим способом увеличить доход, но имело ужасные
последствия 15–16 декабря 2014 года в Сиднее, когда боевик взял в заложники 18
человек в кафе.
Некоторые системы обнаружения аномалий даже смоделированы
по принципу работы иммунной системы человека, поскольку проблемы в целом
оказываются сходными.
Однако, когда ИИ обучает себя, нет никакой гарантии, что он
поймет более широкий контекст того, что он изучает. ИИ объединяет данные в
группы, которые порой оказываются трудными для понимания, кроме того, эти
группы могут меняться со временем по мере поступления новых данных.
Приведенный выше разговор иллюстрирует типичную проблему:
часто ИИ не может поддерживать дискуссию, состоящую из нескольких предложений.
Он теряет нить и рассматривает каждое предложение независимо.
Он также не способен связать свои ответы с реальностью –
хотя может следовать языковым правилам, статистическим корреляциям или даже искать
факты, касающиеся ответов на каждое новое предложение.
Компьютеры при общении имитируют разговоры. Они
манипулируют символами, не понимая их значения. Другими словами, нечто может
выглядеть как утка, звучать как утка, но при этом не быть уткой[13]. А являться
всего лишь умелой подделкой.
Он полагал, что дети не получают достаточно информации,
чтобы научиться говорить так свободно, как они это делают, – он назвал это
бедностью стимула.
Хомски утверждал, что ответственной за развитие у детей
необходимых речевых навыков является некоторая врожденная способность к
общению, запрограммированная в мозге. Она может рассматриваться как набор
языковых правил – универсальная грамматика.
Хомски развил эту идею в теорию
трансформационно-генеративной грамматики, предполагающей использование
формальных грамматик для описания правил, встроенных в разные языки, что
позволяет их сравнивать. Эта идея доминировала в лингвистике в течение 20 лет,
с 1950-х до 1970-х годов, – как раз то время, когда исследователи ИИ
начали пытаться заставлять компьютеры обрабатывать слова.
Все формальные грамматики относятся к типу 0, их еще
называют неограниченными. Только некоторые из них и принадлежат одновременно и
к типу 1, и являются контекстно зависимыми.
Лишь часть грамматик типа 1 относится также к типу 2. Они
не зависят от контекста (это контекстно свободные грамматики), и именно эта
концепция лежит в основе большинства языков программирования: в выражениях не
может быть никакой двусмысленности.
некоторые грамматики типа 2 принадлежат также к типу
3 – типу регулярных грамматик, включающему обычные языки, которые
настолько просты и ограниченны, что конечный автомат может их понять.
Ответ пришел из области больших данных. По мере того как
знания, деловая активность и социальное взаимодействие переходят в интернет,
объем разговорных данных растет в геометрической прогрессии. Первое
использование этих данных заключалось в автоматическом создании языковых правил
с применением метода ИИ под названием «деревья решений».
Деревья решений похожи на поведенческие деревья,
используемые для управления роботами. Это, как правило, ряд закрытых вопросов,
помогающих делать прогноз или классифицировать входные данные по различным
группам.
Деревья решений популярны, потому что их легко понять. В
отличие от нейросетевых подходов, которые являются своего рода черным ящиком
(вы не знаете, как хранится информация или как принимаются решения), в деревьях
решений вы всегда видите, что происходит. Если ваше дерево представляет собой
решение того, какие слова и предложения при каких обстоятельствах употреблять,
значит, вы сделали простой чат-бот.
В 2019 году команда исследователей проанализировала влияние
обучения нескольких наиболее успешных нейронных сетей глубокого обучения для
обработки естественного языка на окружающую среду и обнаружила, что (в
дополнение к стоимости облачных вычислений) углеродный след может быть таким же
высоким, как у пяти автомобилей за весь срок их службы.
Настоящим признаком интеллекта является не знание, а
воображение.
АЛЬБЕРТ ЭЙНШТЕЙН
Цель симуляции – создать виртуальную лабораторию, которая
функционирует точно так же, как в действительности, за исключением того, что мы
можем все контролировать. Если мы хотим понять какой-либо процесс, идущий
слишком медленно, чтобы мы могли увидеть изменения, нам под силу ускорить его в
симуляции.
Все модели ошибочны по своей природе, поскольку наши
компьютеры недостаточно мощны, чтобы учитывать каждый аспект реальности. Задача
состоит в том, чтобы смоделировать те из них, что являются причиной
интересующего нас поведения, и пренебречь всеми остальными.
Многие описанные в предыдущих главах методы ИИ можно
рассматривать как виды компьютерного моделирования.
Ранние идеи искусственных нейронных сетей были основаны на
понимании того, как работают нейроны в человеческом мозге.
Многие алгоритмы оптимизации базируются на простых
представлениях о том, как функционируют живые системы: генетические алгоритмы
вдохновлены естественной эволюцией, алгоритм муравьиной колонии основан на том,
как муравьи коллективно находят кратчайшие пути от гнезда к пище, алгоритмы
искусственной иммунной системы – как наши иммунные клетки обнаруживают и реагируют
на патогены.
Модели часто опираются на множество систем уравнений,
например дифференциальных, решения которых характеризуют поведение электрической
цепи или химических процессов.
Например, в 2001 году в Великобритании вспыхнула эпидемия
ящура. Благодаря моделированию удалось выяснить, что при значительной
выбраковке скота экспоненциальный рост заболевания может трансформироваться в
экспоненциальный спад в течение двух дней. Рекомендацию модели выполнили, и,
хотя это привело к немалым потерям, она сработала: болезнь была ликвидирована.
Искусство состоит в создании упрощения, достаточно простого
для вычисления, но в то же время не настолько простого, чтобы вы упустили
полезные данные.
МАЙКЛ ЛЕВИТТ, нобелевский лауреат, профессор структурной
биологии (2013)
Чувства нельзя игнорировать, какими бы несправедливыми или
неблагодарными они ни казались.
АННА ФРАНК
Эллиот больше не был тем человеком, каким был раньше.
Его направили к неврологу Антонио Дамасио. При осмотре
Эллиот выглядел совершенно нормально: отличная память, никаких нарушений речи
или любых других видимых нарушений. Но он больше не мог чувствовать. У Эллиота
пропали эмоции. Он был тем, кто принимает логичные решения, за исключением
того, что без эмоций он ничего не мог решить.
Сталкиваясь с необходимостью постоянно что-то решать каждый
день, он не мог вынести положительное или отрицательное суждение. Есть на
завтрак хлопья или тосты? Классифицировать рабочие документы по дате или по
важности? Что делать вечером? А на следующей неделе? Эллиот просто утонул в
безбрежном море решений и в конечном итоге либо застывал в нерешительности,
либо делал неудачный выбор, все больше разрушая свою жизнь.
Я начал думать, что хладнокровие суждений Эллиота мешает
ему определять ценность различных вариантов и делает его область принятия
решений безнадежно плоской.
АНТОНИО ДАМАСИО (2005)
На протяжении всей истории большинство исследователей ИИ,
ученые и инженеры, были мужчинами, зачастую не обладающими развитой эмпатией
или хорошими социальными навыками. На протяжении десятилетий у ИИ развивали
способность принимать холодные, логические решения, осуществлять контроль и
прогнозировать.
большинство исследователей считали, что эмоции мешают
принятию решений и лучше их не иметь.
эмоциональные вычисления, начала Розалинд Пикар, профессор
Медиалаборатории МТИ, в 1995 году. Ее вдохновили идеи Дамасио и прежде всего
тот факт, что эмоции необходимы для принятия решений.
методов машинного обучения для анализа эмоций людей при
просмотре рекламы,
Сегодня технологии распознавания лиц используются также для
выявления аутизма, шизофрении, болезни Альцгеймера и в системах прогнозирования
преступности.
некоторые неврологические реакции – определенные виды
судорог – задействуют области мозга, которые также вовлечены в эмоции, –
Эти реакции можно выявить с помощью разработанных нами
браслетов, которые изначально предназначались для распознавания эмоций».
раздали браслеты с датчиками финансовым трейдерам.
Нечеткая логика – это разновидность многозначной логики,
впервые предложенная математиком и информатиком Лотфи Заде в 1965 году. В то
время как нормальная логика основана на бинарном «да/нет», «включено/выключено»,
нечеткая логика определяет степень принадлежности к множеству. Нечеткая логика
напоминает вероятность, но отличается от нее: значение нечеткой логики
представляет собой степень, с которой данные относятся к значению в пределах
неясно заданного набора, тогда как вероятность – это возможность чего-либо.
Алгоритмы машинного обучения теперь способны
классифицировать эти данные и позволяют точно прогнозировать наше эмоциональное
состояние.
Чат-бот Microsoft в женском обличье, Xiaoice, добилась
значительной популярности благодаря симпатичной внешности и способности
очаровывать собеседника. Около 100 миллионов 18–25-летних людей в мире беседуют
с ней, причем некоторые регулярно. Является ли это лекарством от одиночества,
которое нам стоит принять? Или это всего лишь циничная уловка компании, призванная
повысить лояльность к бренду?
В 2017 году в результате утечки данных о сообщениях,
отправленных рекламодателям руководством Facebook, стало известно, что компания
способна отслеживать сообщения в режиме реального времени и определять, когда
подростки чувствуют себя «беззащитными», «бесполезными» и «нуждающимися в
увеличении уверенности».
Facebook также подвергся критике за более раннее
исследование 2014 года, в ходе которого компания проводила манипулирование
новостными лентами почти 700 000 пользователей, чтобы повлиять на их эмоции,
что нарушало этические принципы, поскольку никто из «испытуемых» не давал
информированного согласия.
Сказать, что ИИ начнет делать то, что он хочет, преследуя
собственные цели, все равно что сказать, что калькулятор начнет делать свои
собственные вычисления.
ОРЕН ЭТЦИОНИ
Умерев в феврале 1988 года, всемирно известный физик Ричард
Фейнман оставил после себя сообщение.
«Что я не могу создать, я не понимаю».
сознание – это все, с помощью чего робот формирует
собственную внутреннюю модель внешнего мира, свою воображаемую реальность,
которая должна также включать в себя модель самого робота. Когда робот сможет
думать о себе, своем теле и о том, как ему реагировать и воздействовать на
реальный мир отдельно от самого мира, тогда, есть шанс, такой самоанализ станет
первым шагом на пути к сознанию. Постепенно нужно будет добавлять новые функции
– язык, речь, память, мотивацию, – и исследователи поймут, о чем думает
робот. Возможно, когда собственные идеи робота станут более важными, чем
реальность, тогда он получит сознание.
Холланд по-прежнему надеется, что мы сможем создать
компьютерное сознание в ближайшие десятилетия.
Общих ИИ на сегодняшний день не так много. Практически все
современные ИИ специализируются на очень узких областях.
Некоторые футурологи, философы и писатели-фантасты делают
пугающие прогнозы о том, куда в конечном итоге нас может привести эта
технология. Они утверждают, что, как только ИИ станет достаточно умным, чтобы
разрабатывать себе подобных, появится петля положительной обратной связи: умный
ИИ сможет создать еще более умного ИИ, который в свою очередь создаст еще более
умного ИИ, и так далее.
Такого рода аргументы опираются на закон Мура, который
гласит, что число транзисторов в микросхеме удваивается примерно каждые два
года (а скорость процессоров удваивается каждые 18 месяцев).
Однажды, считают они, мы достигнем «технологической сингулярности[18]» –
когда рост подобных ИИ станет неуправляемым, что приведет к потенциальной
катастрофе для человечества.
Я установил дату сингулярности, когда произойдет глубокая и
разрушительная трансформация человеческих возможностей, – 2045 год.
Созданный в этот год небиологический интеллект окажется в миллиард раз мощнее,
чем весь человеческий интеллект сегодня.
РЭЙМОНД КУРЦВЕЙЛ (2005)
Но успехи в области ИИ всегда связаны с улучшением
алгоритмов, а не с частотой процессора.
несмотря на такие методы, как генетическое
программирование, мы отчаянно стараемся заставить компьютеры разрабатывать
более совершенные алгоритмы.
не случайно, что на планете Земля очень мало существ со
столь же сложным мозгом, как наш, и что для их создания потребовалось 3,5
миллиарда лет эволюционных экспериментов.
Мы можем быть уверены: не будет никаких сингулярностей,
вышедших из-под контроля ИИ.
Большинство исследований в области ИИ не имеет ничего
общего с суперинтеллектом, или ОИИ.
Глубокое обучение – методы машинного обучения, обычно основанные на искусственных нейронных сетях с несколькими скрытыми уровнями, которые изучают представленные данные. Обучение может осуществляться с полным или неполным контролем, а также быть неконтролируемым.
Нечеткая логика – форма многозначной логики, использующая
лингвистические переменные.

Немає коментарів:
Дописати коментар