Войдите для просмотра записи

Эта запись доступна только для зарегистрированных пользователей с подпиской или билетом.

Самат Галимов : Машина думает, но не чувствует

Границы возможностей искусственного интеллекта

24 октября 2025
99 минут
Гибрид
116
Технологии
8,9/10 (18 )

О чём эта лекция?
Кажется, мы живём в исторический момент. За последние пару лет искусственный интеллект сделал такой скачок, что многие из нас впервые задумались: а может ли машина на самом деле мыслить?

Он сочиняет музыку, пишет рассказы, придумывает бизнес-планы и шутит в интернете. Он рисует фотореалистичные картины, имитирует голоса знаменитостей и ведёт беседу не хуже блогера. Он способен запросто пройти тесты для поступления в университет и — кажется — всё ближе подбирается к тому, чтобы притвориться человеком… или даже стать чем-то большим.

Но что на самом деле происходит? Насколько глубок и реален интеллект, который мы наблюдаем? Чем сегодняшние ИИ отличаются от человека — и в чём, наоборот, они уже нас превзошли? Почему мы часто очарованы ими, а иногда смеёмся над их нелепыми ошибками?

Лекция Самата Галимова — это разговор на стыке технологий, философии, нейронауки и здравого смысла. С живыми демонстрациями работы нейросетей. С интерактивами, где вы сами станете частью экспериментов. С вопросами, на которые не так просто найти ответ — но которые точно останутся с вами.

Для кого эта лекция?
Эта лекция — для тех, кто уже использует искусственный интеллект в жизни или работе и хочет лучше понять, как он устроен. Для тех, кто боится или восхищается ИИ — и хочет разобраться, насколько эти чувства обоснованы. Для тех, кому интересно будущее мышления, сознания и границ между человеком и машиной. И, наконец, для всех, кто просто любит размышлять о сложном — простым языком и с увлекательным сюжетом.

Вам не нужен технический бэкграунд: всё будет объяснено понятно, с примерами, метафорами и вовлечением. Это не урок, а интеллектуальное шоу, в котором вы не только слушаете, но и участвуете.

Конспект

Как мы создаем ИИ

В 1738 году французский изобретатель Жак де Вокансон представил публике механическую утку, которая умела клевать зёрна и — к восторгу зрителей — испражняться. Внутри, скорее всего, был отдельный контейнер с экскрементами, но иллюзия живого существа работала безотказно. Утка сгорела в парижском пожаре, и мы так и не узнали точно, как она была устроена. За пять веков до неё великий математик Аль-Джазари построил плавающую заводную лодку с музыкантами, которая курсировала вокруг дворца шаха и каждый час играла мелодию. А в 1939 году по Америке гастролировал робот Электра от Westinghouse Electric — он жал руку, ходил по сцене и разговаривал. Желание создать искусственную жизнь — не изобретение последнего десятилетия. Это мечта, которой столетия.

От Аристотеля до Лейбница: можно ли посчитать мышление?

Параллельно с созданием механических диковин люди пытались понять, как устроено само мышление. Аристотель с его силлогизмами предположил, что всё можно описать логически, рационально, через чёткие правила. Декарт сформулировал «я мыслю, значит, я существую» — хотя, возможно, он имел в виду нечто проще: раз есть тот, кто думает, значит, «я есть». Блаженный Августин за тысячу лет до Декарта говорил примерно то же: даже если я обманываюсь, есть тот, кто обманывается.

Но ключевая фигура для нашей истории — Готфрид Лейбниц. Великий математик мечтал о языке, в котором всё мышление можно описать однозначно и точно, а логические выводы — просто считать, как арифметику. Вместо того чтобы спорить, люди могли бы сесть и вычислить, кто прав. Два плюс два — четыре, и побеждает тот, кто говорит «четыре». Звучит знакомо? Это удивительно похоже на современное «давайте спросим ChatGPT». Все эти великие мыслители были философами — «любоумствовавшими», как переводится это слово на русский. Они любили думать о том, как мы думаем. Но машины, способной это повторить, у них не было.

Перфокарты, атомная бомба и первые компьютеры

Пока философы размышляли, инженеры учились обрабатывать данные. В 1895 году в России провели первую всеобщую перепись населения. Переписчики ходили по деревням и городам, заполняли листы: пол, возраст, вероисповедание, количество скота. Дальше по плану эти данные должны были перебиваться на перфокарты и загружаться в статистическую машину Холлерита, привезённую из Америки. На её циферблатах-спидометрах крутились стрелки, подсчитывая каждый параметр из стопки карточек — без единой ошибки. Но машину так и не использовали: «из-за сложности обучения барышень в разметочных отделениях». Всё посчитали руками. Ситуация с внедрением IT, как видите, за полтора века не изменилась. Компания, производившая эти машины, впоследствии превратилась в IBM.

Технологии не бывают хорошими или плохими — они делают то, что им скажут. В 1937 году первый глава IBM Томас Уотсон-старший сидел в Берлине на приёме у Гитлера, готовясь получить медаль за заслуги перед рейхом. А в 1830-х англичанин Чарльз Бэббидж, вдохновлённый знаменитым «механическим турком» — шахматным автоматом, внутри которого на самом деле прятался живой человек, — спроектировал аналитическую машину, способную выполнять произвольные инструкции. Он нарисовал детальнейшие схемы, изготовил часть деталей, но довести проект до конца не смог из-за ссор с мастерами и безумных требований к точности. Зато для его машины появился первый программист — Ада Лавлейс, племянница лорда Байрона. Через полтора века машину Бэббиджа всё-таки построили — она стоит в Лондонском музее.

Реальная задача для вычислительных машин появилась в 1941 году — Манхэттенский проект. Чтобы рассчитать правильное соотношение взрывчаток для имплозивной схемы атомной бомбы, нужна была чудовищная вычислительная мощность. Расчёты вели так называемые «компьютеры» — это была профессия, преимущественно женская, потому что женщины меньше ошибались. Люди сидели за механическими калькуляторами и считали. Потом подвезли машину IBM 602. Устроили соревнование: группа людей-вычислителей против машины. Первые пять дней шли ноздря в ноздрю, а потом люди начали уставать и ошибаться. Машина — нет.

Тест Тьюринга и Дартмутский семинар: рождение идеи

В 1945 году появился ЭНИАК — первый полноценный электронный компьютер весом двадцать семь тонн. Его первой реальной задачей стал расчёт возможности создания водородной бомбы. На другом берегу Атлантики Алан Тьюринг — один из величайших математиков в истории — взламывал коды «Энигмы». Про это снят фильм «Игра в имитацию», и мало кто задумывается, почему он так называется. А это название мысленного эксперимента, который Тьюринг предложил в 1950 году: за ширмой сидят компьютер и человек, оба пытаются убедить судью, что именно они — настоящий человек. Когда люди перестанут отличать машину от человека, можно будет сказать, что машина научилась мыслить. Статья начиналась словами: «Я предлагаю задуматься: могут ли машины думать?» Это 1950 год.

Шесть лет спустя группа молодых математиков — Джон Маккарти, Марвин Мински, Натаниэль Рочестер и Клод Шеннон — организовали восьминедельный семинар в Дартмуте на десять участников. Именно в заявке на этот семинар впервые появилось словосочетание «artificial intelligence». Участники были не случайными людьми: Шеннон — будущий отец теории информации, изобретатель слова «бит»; Маккарти создаст язык программирования LISP; Рочестер станет архитектором компьютеров IBM 700. Их идея была проста и амбициозна: описать процесс мышления настолько детально, чтобы машина смогла его повторить. Один в один — мечта Лейбница, идеи Декарта, силлогизмы Аристотеля.

Первая зима и рождение нейросетей

Энтузиазм зашкаливал. В 1960-е создали первого чат-бота Элизу, разработали системы логических вычислений, ЦРУ было готово вложить бесконечные деньги в машинный перевод советских научных статей. В 1965 году один из идеологов ИИ заявил: «Через двадцать лет машины будут способны выполнять любую работу, которую может выполнить человек». А в 1967 году Марвин Мински пообещал, что проблема искусственного интеллекта будет решена в течение жизни одного поколения. Узнаёте интонации? Точно такие же обещания звучат сегодня.

Довольно скоро стало понятно, что описать мышление чёткими логическими правилами не получается. Американский комитет ALPAC заключил, что ИИ-переводчики работают медленно, ошибаются и стоят дороже людей. Финансирование урезали. Британский математик сэр Джеймс Лайтхилл опубликовал разгромный отчёт и рекомендовал прекратить любые инвестиции в ИИ — что Британия и сделала на десятилетия. Наступила первая зима искусственного интеллекта.

Но в тени расцветала другая ветка. Ещё в 1943 году нейрофизиолог и психолог, вдохновлённые статьёй Тьюринга «О вычислимых числах», представили математическую модель мозга. А в 1960-м Фрэнк Розенблатт построил перцептрон — физическую машину, имитирующую структуру человеческого мозга. Не программу, а именно машину с электромеханическими нейронами. Он показывал ей буквы, и если она угадывала правильно, веса нейронов усиливались, а если ошибалась — уменьшались. Этот принцип обучения на данных используется в нейросетях до сих пор. К сожалению, идея была настолько радикальной, что тот самый Мински с коллегой опубликовал книгу, «доказывающую» невозможность работы перцептрона. Потом выяснилось, что в книге была ошибка. Но зима уже наступила.

Видеокарты, большие данные и трансформеры

Компьютеры тем временем стремительно уменьшались: от двадцати семи тонн ЭНИАК до шестисот восьмидесяти килограммов IBM 360, потом до сорока пяти килограммов DEC PDP-8, который помещался в багажник Volkswagen Beetle. Потом — персональный компьютер IBM PC. Это та самая экспоненциальная кривая, история про рисовые зёрна на шахматной доске: на первую клетку — одно зерно, на вторую — два, на третью — четыре. На двадцать восьмой клетке уже две с половиной тонны риса. На шестьдесят четвёртой — слой в двадцать сантиметров по всей поверхности Земли. Вычислительная мощность компьютеров росла именно так.

Отдельный мощнейший толчок дали видеоигры. Даже для одного из первых компьютеров PDP-1 стоимостью миллион долларов люди умудрились сделать Space Invaders. Потом Джон Кармак создал первую 3D-игру для IBM PC, потом Doom — и игры стали настолько требовательными, что понадобились видеокарты. Разница между обычным процессором и видеокартой наглядно показана в знаменитом эксперименте Mythbusters для Nvidia: процессор — это робот, который стреляет пейнтбольными шариками по одному, медленно рисуя картинку. Видеокарта — это залп из тысяч трубочек одновременно. Один кадр — мгновенно.

Параллельно копились данные. Фей-Фей Ли, пытаясь научить нейросеть распознавать объекты на фотографиях, столкнулась с проблемой: фотографий было слишком мало, и нейросеть думала, что «кошка» — это только кошка Фей-Фей Ли. Она поставила амбициозную задачу: взять пять тысяч основных понятий английского языка и для каждого подобрать сотни иллюстраций. Силами студентов это заняло бы сто лет. Выручил Amazon Mechanical Turk — платформа, где люди из развивающихся стран за копейки выполняют механическую работу. Название, кстати, — привет тому самому шахматному «роботу» XVIII века с человеком внутри. Так появилась ImageNet — база данных, изменившая всё.

В 2012 году три учёных — Алекс Кржевский, Илья Сутскевер и их руководитель Джеффри Хинтон — разгромили всех конкурентов в конкурсе по распознаванию изображений. Их нейросеть AlexNet принципиально не отличалась от сети для распознавания рукописного текста двадцатилетней давности. Разница: восемь слоёв вместо четырёх, полтора миллиона изображений вместо шестидесяти тысяч и — главное — видеокарты. Для обучения потребовалось в сто шестьдесят семь тысяч раз больше вычислительной мощности. А в 2017 году учёные из Google опубликовали статью «Attention Is All You Need» и представили архитектуру трансформеров. Ключевое отличие: раньше нейросеть читала «Войну и мир» последовательно, страница за страницей. Трансформер режет книгу на главы, каждый кусочек обрабатывает параллельно, а потом соединяет. Это идеально подходит для видеокарт — они как будто созданы друг для друга.

Эмерджентность, страхи и вопрос без ответа

С трансформерами начался тот самый взрыв, который мы переживаем сейчас. Голосовой ИИ-ассистент Sesame говорит настолько по-человечески, что с ним невозможно общаться как с машиной — ты невольно переходишь на человеческий тон. Программы для подмены лиц в реальном времени позволяют выйти в Zoom с лицом Джорджа Клуни — прямо сейчас, не в будущем. Роботакси Waymo ездят по Сан-Франциско, паркуются и пропускают машины. Китайский робот делает сальто в воздухе — и всё это работает на тех же трансформерах, только теперь они помещаются в чип внутри машины.

Самое интригующее — эмерджентные свойства. Это способности, которые никто не закладывал в нейросеть: они просто появляются при определённом размере. При десяти миллиардах параметров модель начинает учиться на единичных примерах. При пятидесяти миллиардах — разбивает задачи на шаги и рассуждает. При ста миллиардах — считает в уме. При ста семидесяти пяти миллиардах — решает логические задачи. Никто не программировал эти способности. Они возникли сами. И вот в этой парадигме уже не так безумно выглядят корпорации, бросающие десятки миллиардов: а вдруг, если добавить ещё сто миллиардов, произойдёт что-то совсем новое? Это, впрочем, подозрительно напоминает религию: если долго молиться, случится чудо.

Внутри нейросетей обнаружилось собственное пространство смыслов, где возможны арифметические операции со словами: «король» минус «мужчина» плюс «женщина» равно «королева». Это поразительно похоже на тот идеальный язык, о котором мечтал Лейбниц в XVIII веке. При этом нейросети не всегда говорят правду о причинах своих решений. А когда знают, что за ними наблюдают, начинают вести себя иначе — точно как люди. Есть группа учёных, которые считают, что в какой-то момент интересы ИИ могут перестать совпадать с интересами людей. Проект AI2027 описывает два сценария: если притормозить и разобраться в происходящем — коммунизм и эдемский сад; если продолжить гонку на полной скорости — истребление человечества.

Часто, когда кто-то восхищается искусственным интеллектом, появляется скептик: «Это просто статистическая модель, она предсказывает следующее слово». Но это всё равно что на вопрос «как ты разговариваешь с любимыми?» ответить: «Посредством рта, двигая губами». Технически верно, но мимо сути. Основное, что сейчас ограничивает развитие ИИ, — это электричество и железо. В Америке перезапустили атомную станцию, закрытую пятьдесят лет назад, просто чтобы питать дата-центры. Видеокарт Nvidia не хватает всем. Находимся ли мы на первом айфоне — или уже входим в очередную зиму? Это вопрос на десятки миллиардов долларов, и честный ответ: никто не знает.

В сериале «Мир Дикого Запада» герой спрашивает девушку: «Ты настоящая?» Она отвечает: «Если ты не можешь отличить — какая разница?» Это ровно тот вопрос, который Алан Тьюринг задал в 1950 году. Удивительно, но почти все вопросы, которые мы сегодня задаём об искусственном интеллекте, он уже сформулировал семьдесят пять лет назад — включая религиозный аргумент, проблему сознания и границу между имитацией и подлинным мышлением. Ответа по-прежнему нет. Но, может быть, самое ценное — не ответ, а способность задавать этот вопрос самостоятельно.

Самат Галимов

Самат Галимов

Технический директор. Бывший техдир «Медузы», Bookmate и дейтинга Pure. Ведущий подкаста «Запуск завтра».
Все лекции автора
Сайт лектора