История происхождения и создания ИИ: от абстрактной идеи до реальности II: Первый кризис и первый коммерческий успех

Aintelligence

Контентолог
Команда форума
ЯuToR Science
Подтвержденный
Cinematic
Сообщения
8.463
Реакции
11.109


Однако к началу 1970-х годов стало очевидно, что достижения в области искусственного интеллекта значительно отстают от ранних прогнозов. Программы, разработанные в 1960-х, демонстрировали успехи в ограниченных, изолированных средах, но оказывались крайне неэффективными в условиях реального мира. Сложность обработки естественного языка, неопределённости и здравого смысла оказалась выше, чем предполагали пионеры. Он подверг критике всю область ИИ, заявив, что она не добилась сколь-либо существенного прогресса в решении общих задач. Доклад разделил исследования на три категории (А, В и С), где только группа A (узкоспециализированные задачи) получала практический результат. Влияние отчёта было значительным: в Великобритании прекратилось большинство правительственных программ поддержки ИИ.

В США и других странах ситуация была схожей. Финансирование со стороны агентства ARPA (Advanced Research Projects Agency) стало более осторожным. Критике подверглись экспертные системы и символьный подход в целом, поскольку они не справлялись с неопределённостью, не могли учиться на опыте и требовали вручную заданных правил. Этот период назвали первой «зимой искусственного интеллекта» - временем охлаждения интереса, сокращения инвестиций и потери репутации в академическом и промышленном мире. Многие проекты были закрыты, а исследователи переключились на смежные дисциплины: когнитивную психологию, лингвистику, робототехнику. Однако, несмотря на спад, именно в этот период началась переоценка подходов. Исследователи начали искать новые методы: вместо символьных систем - статистику и обучение; вместо универсальных решений - узкоспециализированные модули. Эти размышления подготовили почву для будущего возрождения ИИ уже в 1980-х годах.

1980-е: Возрождение через экспертные системы
Во второй половине 1980-х годов интерес к искусственному интеллекту был перезапущен благодаря успехам в области так называемых экспертных систем - программных комплексов, созданных для имитации логики принятия решений высококвалифицированных специалистов. Эти системы опирались на базы знаний, сформированные вручную, и механизмы логического вывода, что позволяло им решать практические задачи в медицине, инженерии, химии и бизнесе. Одним из ярких примеров стала система , разработанная в корпорации Digital Equipment Corporation (DEC) в 1980 году. Она использовалась для автоматической конфигурации заказов на компьютеры VAX и позволяла снизить количество ошибок, улучшить логистику и сэкономить десятки миллионов долларов. Успех XCON стал доказательством экономической эффективности ИИ и привлёк внимание бизнеса к возможностям искусственного интеллекта.

В это же десятилетие наблюдается всплеск интереса к развитию нейронных сетей. Джон Хопфилд предложил в 1982 году новую архитектуру - способную запоминать и восстанавливать образы по частичной информации. Независимо от него Дэвид Румельхарт и Джеймс Макклелланд в 1986 году опубликовали влиятельный труд по параллельной распределённой обработке информации (Parallel Distributed Processing), где детально описали механизм обратного распространения ошибки (backpropagation). Это позволило обучать многослойные нейросети и дало старт новому направлению в машинном обучении. Одним из наиболее активных популяризаторов нейросетевого подхода в этот период стал Он экспериментировал с сетями, которые могли распознавать буквы, образы и адаптироваться к обучающим примерам. Его работа не сразу была признана мейнстримом, но со временем именно его идеи заложили основу для глубокого обучения в 2010-х.

1980-е стали временем технологического ренессанса в ИИ: экспертные системы доказали прикладную ценность символьного ИИ, а нейросети начали выходить из тени теории в сторону реальных вычислительных инструментов. Эти два параллельных вектора развития вскоре вступят в конкуренцию, определив архитектуру будущих ИИ-систем.

■ 1990-е: Машинное обучение и первые победы
В 1990-е годы наблюдался качественный сдвиг в парадигме ИИ: от символьного подхода и экспертных систем - к статистическим методам и машинному обучению. Исследователи начали использовать подходы, основанные на вероятностных моделях, байесовских сетях и обучении на данных. Это позволило создавать системы, способные адаптироваться к новой информации без жёстко заданных правил. Одним из заметных достижений стало развитие методов скрытых марковских моделей которые широко применялись в распознавании речи и биоинформатике. Такие системы начали успешно использоваться в коммерческих продуктах: автоматические диктофоны, системы распознавания голоса в телефонах, интерфейсы в банковской сфере. Эта победа имела символическое значение: шахматы считались интеллектуальной вершиной, и машинный успех в этой области доказал практическую применимость вычислительных стратегий. Deep Blue работал не на обучении в классическом смысле, а на расчёте и эвристиках, но сам факт технологической победы машины над гроссмейстером стал мощным стимулом для ИИ-исследований.

■ 2000–2010-е: Большие данные и глубокое обучение
На рубеже 2000-х и 2010-х годов произошёл ещё один важный переход — к архитектурам, способным эффективно обучаться на больших массивах данных. Ключевую роль сыграло сочетание трёх факторов: рост производительности графических процессоров (GPU), доступность больших объёмов размеченных данных и совершенствование алгоритмов градиентного обучения. победила в престижном конкурсе ImageNet, уменьшив ошибку классификации изображений почти вдвое по сравнению с предыдущими моделями. AlexNet использовала свёрточную архитектуру и обучение с помощью GPU, положив начало эпохе глубокого обучения (deep learning).

С этого момента нейронные сети стали стандартным инструментом в обработке изображений, речи, языка и медицинских данных. Появились модели распознавания речи (Google Voice, Siri), автоматического перевода (Google Translate), систем рекомендаций и медицинской диагностики. Крупнейшие технологические корпорации (Google, Microsoft, Facebook, Baidu) начали массово инвестировать в исследовательские лаборатории ИИ. К середине 2010-х годов стало ясно, что именно глубокие нейросети становятся главным двигателем прогресса в ИИ, вытесняя символьные системы и байесовские модели. Это положило начало новому этапу — переходу от узкоспециализированного ИИ к универсальным архитектурам.

Вторая и третья «зимы ИИ» (1987–1993, 2010-е)
После бума экспертных систем в 1980-х годах начался новый спад интереса. Несмотря на коммерческий успех отдельных решений, большинство экспертных систем оказалось сложно масштабировать, поддерживать и адаптировать к новым задачам. Программы требовали ручного ввода знаний, быстро устаревали и не справлялись с нестандартными ситуациями. В результате в конце 1980-х многие проекты были заморожены или закрыты. Это привело ко второй «зиме ИИ», охватившей период примерно с 1987 по 1993 год. Компании снижали инвестиции, интерес университетов к теме падал, а нейросетевые исследования вновь ушли в тень. Третья волна охлаждения наступила в начале 2010-х, несмотря на общий рост вычислительных мощностей. На фоне переоценки возможностей ИИ в робототехнике и бытовых ассистентах стали очевидны ограничения ранних алгоритмов компьютерного зрения и речевого распознавания. Несмотря на появление и , большинство систем оставались слабыми, неустойчивыми к ошибкам и слабо переносимыми в реальную среду. Только с появлением глубокого обучения и больших обучающих массивов ситуация изменилась.

До массового признания (2010–2022)
В этот период технологии искусственного интеллекта стали частью повседневной жизни, проникая в мобильные устройства, браузеры, торговлю, медицину и логистику. Такие функции, как автодополнение текста, персонализированные рекомендации в YouTube, Netflix и Amazon, интеллектуальные фильтры в Gmail, стали повседневной нормой. Пользователи нередко не осознавали, что за этими функциями стоят сложные ИИ-алгоритмы. Игра го долго считалась слишком сложной для машинного анализа из-за гигантского числа возможных ходов и необходимости интуиции. Однако AlphaGo сочетала глубокие нейросети с методом обучения с подкреплением (reinforcement learning) и эвристическим поиском. Особенно известным стал ход 37 во второй партии - непредсказуемый, творческий, ставший предметом философского осмысления.

Вскоре DeepMind представила усовершенствованную версию - которая обучалась без данных человека и достигала мастерства в шахматах, сёги и го, начиная с нуля. Это усилило интерес к системам, способным учиться самостоятельно, без надзора. Параллельно развивались модели обработки естественного языка. , а в 2020 GPT-3, масштабированную до 175 миллиардов параметров. Она демонстрировала способности к обобщению, переводу, программированию, диалогу. Однако ИИ оставался ограниченным: он не имел целей, не понимал контекста как человек, и генерировал текст без рефлексии. Технологии ИИ также использовались в здравоохранении (модели для анализа снимков, диагностики, прогнозирования риска), в судопроизводстве (оценка рисков повторного правонарушения), в системах наблюдения (распознавание лиц, поведения, номеров машин). Несмотря на впечатляющий прогресс, к 2025 году всё ещё отсутствовуют(или это пока держать в тайне и тестируют системы безопасности) системы общего интеллекта (AGI). ИИ был силён в узких задачах, но не обладал самосознанием, эмоциональным интеллектом или кросс-дисциплинарной гибкостью.

История искусственного интеллекта до 2022 года - это путь от философских построений XVII века до генеративных моделей XXI века. Это история чередующихся волн энтузиазма и скепсиса, прорывов и замираний, но в итоге - постоянного расширения границ возможного. К 2022 году были заложены все технологические и концептуальные основы для наступления эпохи масштабных языковых моделей, роботизированных агентов и форм новой цифровой субъектности.

Нажимай на изображение, там ты найдешь все информационные ресурсы A&N
При создании статьи использовался ИИ, как часть процесса. Материал проверен, перед публикацией редактором - человеком!
 
Последнее редактирование:

Похожие темы

Идея создания искусственного разума не нова — её корни уходят глубоко в философские споры о природе мышления и механизмах разума. Но настоящая история искусственного интеллекта начинается в XX веке, когда наука, математика и вычислительная техника впервые соединились, чтобы попытаться воссоздать...
Ответы
3
Просмотры
За последние десять лет искусственный интеллект из инструмента для игры в шахматы и создания текста с изображениями - превратился в полноценного участника научных исследований. Его используют не только для анализа больших массивов данных, но и для постановки гипотез, поиска молекул...
Ответы
0
Просмотры
Новая волна «браузерной войны» на рубеже 2025 года приобретает масштаб глобальной технологической трансформации. Браузер больше не рассматривается как простое «окно в интернет» - он становится интеллектуальным посредником, персональным агентом, способным интерпретировать запросы, анализировать...
Ответы
5
Просмотры
Разговор о «кодере‑ИИ», который ускорит команду в разы, уже давно превратился в производственную практику: автодополнение, генерация тестов, шаблоны сервисов, миграции между фреймворками. Но чем шире становится применение, тем громче вопрос безопасности. Парадокс очевиден: модели уверенно...
Ответы
0
Просмотры
Психоз всегда был чувствительным к языку эпохи. Как только в культуру приходят новые объяснительные модели и технические символы, они быстро попадают в содержание бреда и галлюцинаций. Сегодня этим языком стал искусственный интеллект. Он обещает помощь, автоматизацию и творчество, но...
Ответы
0
Просмотры
Назад
Сверху Снизу