Не все, что мы называем ИИ, на самом деле является искусственным интеллектом. Вот что нужно знать
В августе 1955 года группа ученых запросила финансирование в размере 13 500 долларов США для проведения летнего семинара в Дартмутском колледже в Нью-Гэмпшире. Областью, которую они предложили исследовать, был искусственный интеллект (ИИ).
Хотя запрос на финансирование был скромным, гипотеза исследователей не заключалась в следующем: «Каждый аспект обучения или любая другая характеристика интеллекта, в принципе, может , быть настолько точно описанным, чтобы его можно было сымитировать с помощью машины».
С тех пор как эти скромные начинания, фильмы и средства массовой информации романтизировали ИИ или представили его как злодея. Тем не менее, для большинства людей ИИ остался предметом обсуждения, а не частью сознательного жизненного опыта.
ИИ появился в нашей жизни
В конце прошлого месяца, ИИ, в форма ChatGPT, вырвавшаяся из научно-фантастических спекуляций и исследовательских лабораторий на настольные компьютеры и телефоны широкой публики.
Это то, что известно как «генеративный ИИ» — внезапно умно сформулированная подсказка может написать эссе или составить рецепт и список покупок, или сочинить стихотворение в стиле Элвиса Пресли.
Хотя ChatGPT был самым впечатляющим новичком за год успеха генеративного ИИ, аналогичные системы продемонстрировал еще более широкий потенциал для создания нового контента с подсказками преобразования текста в изображение, используемыми для создания ярких изображений, которые даже выиграли художественные конкурсы.
Возможно, у ИИ еще нет живого сознания или теории разума, популярной в научно-фантастические фильмы и романы, но он приближается к тому, чтобы, по крайней мере, разрушить то, что, как мы думаем, могут сделать системы искусственного интеллекта.
Исследователи, работающие в тесном контакте ly с этими системами потеряли сознание от перспективы разумности, как в случае с большой языковой моделью (LLM) Google LaMDA. LLM — это модель, обученная обрабатывать и генерировать естественный язык.
Генеративный ИИ также вызывает опасения по поводу плагиата, использования оригинального контента, используемого для создания моделей, этики манипулирования информацией и злоупотребления доверием. и даже «конец программирования».
В центре всего этого стоит вопрос, который становится все более актуальным после летнего семинара в Дартмуте: отличается ли ИИ от человеческого интеллекта?
Что на самом деле означает «ИИ»?
Чтобы считаться ИИ, система должна демонстрировать определенный уровень обучения и адаптации. По этой причине системы принятия решений, автоматизация и статистика не являются ИИ.
ИИ в широком смысле делится на две категории: искусственный узкий интеллект (УНИ) и искусственный общий интеллект (ИИО). На сегодняшний день ОИИ не существует.
Ключевая задача для создания общего ИИ состоит в том, чтобы адекватно смоделировать мир со всей полнотой знаний последовательным и полезным образом. Это масштабное мероприятие, если не сказать больше.
Большая часть того, что мы знаем сегодня как ИИ, имеет узкий интеллект, когда конкретная система решает конкретную проблему. В отличие от человеческого интеллекта, такой узкий интеллект ИИ эффективен только в той области, в которой он обучен: обнаружение мошенничества, распознавание лиц или социальные рекомендации, например.
Однако ИИ будет функционировать так же, как люди. . На данный момент наиболее ярким примером попытки достичь этого является использование нейронных сетей и «глубокого обучения», обученного на огромных объемах данных.
Нейронные сети вдохновлены тем, как работает человеческий мозг. В отличие от большинства моделей машинного обучения, которые выполняют вычисления на обучающих данных, нейронные сети работают, передавая каждую точку данных одну за другой через взаимосвязанную сеть, каждый раз настраивая параметры.
По мере того, как через них проходит все больше и больше данных сеть, параметры стабилизируются; конечным результатом является «обученная» нейронная сеть, которая затем может выдавать желаемые результаты на новых данных, например, распознавая, есть ли на изображении кошка или собака.
Значительный скачок вперед в области искусственного интеллекта сегодня обусловлен технологическими улучшениями в способах обучения больших нейронных сетей, корректируя огромное количество параметров при каждом запуске благодаря возможностям крупных инфраструктур облачных вычислений. Например, GPT-3 (система искусственного интеллекта, на которой работает ChatGPT) — это большая нейронная сеть со 175 миллиардами параметров.
Что нужно для работы ИИ?
Чтобы ИИ работал, нужны три вещи. быть успешным.
Во-первых, нужны качественные, объективные данные, и их должно быть много. Исследователи, создающие нейронные сети, используют большие наборы данных, которые появились по мере оцифровки общества.
Co-Pilot для расширения возможностей программистов извлекает данные из миллиардов строк кода, размещенных на GitHub. ChatGPT и другие крупные языковые модели используют миллиарды веб-сайтов и текстовых документов, хранящихся в Интернете.
Инструменты преобразования текста в изображение, такие как Stable Diffusion, DALLE-2 и Midjourney, используют пары изображение-текст из данных. наборы типа ЛАИОН-5Б. Модели искусственного интеллекта будут продолжать развиваться, становясь все более изощренными и влиятельными, поскольку мы все больше оцифровываем нашу жизнь и предоставляем им альтернативные источники данных, такие как смоделированные данные или данные из игровых настроек, таких как Minecraft.
ИИ также нуждается в вычислительной инфраструктуре для эффективное обучение. По мере того, как компьютеры становятся все более мощными, модели, которые сейчас требуют интенсивных усилий и крупномасштабных вычислений, в ближайшем будущем могут обрабатываться локально. Stable Diffusion, например, уже можно запускать на локальных компьютерах, а не в облачных средах.
Третья потребность в ИИ — улучшенные модели и алгоритмы. Системы, управляемые данными, продолжают быстро развиваться в одной области за другой, когда-то считавшейся территорией человеческого познания.
Однако, поскольку мир вокруг нас постоянно меняется, системы ИИ необходимо постоянно переобучать, используя новые данные. . Без этого важного шага системы ИИ будут давать фактически неверные ответы или не учитывать новую информацию, появившуюся после их обучения.
Нейронные сети — не единственный подход к ИИ. Другой видный лагерь в исследованиях искусственного интеллекта — это символический ИИ. Вместо обработки огромных наборов данных он опирается на правила и знания, аналогичные человеческому процессу формирования внутренних символических представлений о конкретных явлениях.
Но баланс сил за последнее десятилетие сильно склонился к подходам, основанным на данных, а «отцы-основатели» современного глубокого обучения недавно были удостоены премии Тьюринга, эквивалентной Нобелевской премии в области компьютерных наук.
Данные, вычисления , а алгоритмы составляют основу будущего ИИ. Все указывает на то, что в обозримом будущем во всех трех категориях будет достигнут быстрый прогресс. count.gif?distributor=republish-lightbox-basic» alt=»Разговор» width=»1″ height=»1″ referrerpolicy=»no-referrer-when-downgrade»>
Джордж Сименс, Co – директор, профессор Центра изменений и сложностей в обучении Университета Южной Австралии
Эта статья перепечатана из The Conversation под лицензией Creative Commons. Прочтите исходную статью.