Эксперты по обучению машин не знают, как наделить их здравым смыслом
2010-е были благоприятным временем для искусственного интеллекта вследствие развития глубокого обучения — технологии, позволившей обрабатывать огромные массивы данных. Сегодня глубокое обучение — ключевой компонент множества повседневных приложений. Но после десяти лет движения в этом направлении мы по-прежнему очень далеки от создания универсального искусственного интеллекта, равного человеческому. Что же нужно для того, чтобы появился универсальный ИИ? Ответ на вопрос попытались найти участники онлайн-конференции Montreal.AI, состоявшейся на прошлой неделе.
Профессор психологии и директор компании машинного обучения Geometric Intelligence Гэри Маркус, напомнил об основных недостатках глубокого обучения — это необходимость в огромном количестве данных, невозможность быстрого переноса знаний из одной области в другую, непрозрачность и низкий уровень способности осмысления. Будучи критиком подхода применения только глубокого обучения, Маркус предлагает гибридный метод обучения машин, комбинирующий алгоритмы обучения с традиционным программированием, основанном на наборах правил, пишет Venture Beat.
Гибридный метод считают перспективным и другие ученые. Так, Луис Лэмб, соавтор книги «Neural-symbolic Cognitive Reasoning», предложил фундаментальный подход для нейронно-символического ИИ, который основан на логической формализации и машинном обучении.
«Мы используем логику и репрезентацию знаний для представления процесса осмысления, который интегрирован в системы машинного обучения, так что мы можем также эффективно реформировать нейронное обучение при помощи процессов глубокого обучения», — сказал Лэмб.
Фэйфэй Ли, профессор Стэнфордского университета и бывшая глава ИИ в Google Cloud, напомнила, что в истории эволюции живых существ зрение стало одним из главных катализаторов появления интеллекта у животных. Аналогичным образом классификация изображений и компьютерное зрение помогли запустить революцию глубокого обучения в 2010-х.
Ли отметила, что интеллект у человека и животных возникает в результате активного восприятия и взаимодействия с миром, однако это свойство совершенно отсутствует в современных ИИ, которые полагаются на данные, собранные и размеченные человеком. В своей лаборатории Ли работает над созданием интерактивных агентов, которые используют восприятие и возбуждение для понимания мира.
Специалист по информатике Ричард Саттон указал на то, что, по большей части, работе над ИИ недостает «вычислительной теории», о чем говорил еще британский нейробиолог Дэвид Марр, известный своей работой о зрении. Вычислительная теория определяет, какую цель преследует система обработки информации и почему.
Саттон считает, что обучение с подкреплением — лучший кандидат на вычислительную теорию, хотя и признает, что другие варианты тоже стоит рассмотреть.
«Обучение с подкреплением — первая вычислительная теория интеллекта, — сказал Саттон, имея в виду область ИИ, в которой агентам объясняют базовые правила окружающей среды и ждут, пока они научатся получать максимальное вознаграждение. — Обучение с подкреплением четко указывает на цель, на что и почему».
По мнению лауреата премии Тьюринга Джуды Перла наибольшей эффективности системы ИИ достигнут, когда приобретут знания о мире и здравый смысл. При этом знания не появляются из данных. Новорожденный обучается множеству вещей, не получая четких инструкций.
Профессор Университета Вашингтона Чой Ецзинь также подчеркнула важность здравого смысла и трудности, которые возникают у ИИ из-за его отсутствия. Она считает, что наделить машины этим качеством можно, занимаясь параллельными исследованиями в смежных областях знаний, включая сочетание символических и нейронных представлений, интеграцию знаний в умозаключения и создание новых стандартов качества ИИ, отличных от простой категоризации.