Когда лидеры индустрий обретают слишком много власти, происходит нечто странное. Они начинают чувствовать себя настолько комфортно, что порой забывают поддерживКогда лидеры индустрий обретают слишком много власти, происходит нечто странное. Они начинают чувствовать себя настолько комфортно, что порой забывают поддержив

[Перевод] Люди против нейросетей: как Сэм Альтман обесценивает человеческий интеллект

2026/03/02 22:46
7м. чтение
Для обратной связи или замечаний по поводу данного контента, свяжитесь с нами по адресу [email protected]
65381064d91551d17832f4b6ef9ec5a9.png

Когда лидеры индустрий обретают слишком много власти, происходит нечто странное. Они начинают чувствовать себя настолько комфортно, что порой забывают поддерживать свой публичный образ, позволяя нам заглянуть за кулисы и увидеть их истинные намерения. Кажется, технологические визионеры сейчас находятся именно на этом этапе своей эволюции, что недавно прекрасно продемонстрировал Сэм Альтман. Он и раньше был известен своими громкими заявлениями об ИИ, но на этот раз превзошел самого себя, обнажив весьма тревожную философию. Вопрос в том, сможем ли мы вовремя распознать этот тревожный сигнал?

О чем идет речь? Во время недавнего интервью Альтман довольно эмоционально отреагировал на «несправедливые», по его мнению, сравнения энергоэффективности ИИ и человека. Он заявил: «Люди говорят о том, сколько энергии уходит на обучение ИИ-модели... Но на обучение человека тоже уходит много энергии. Требуется около 20 лет жизни и вся еда, которую вы съедаете за это время, прежде чем вы поумнеете».

На первый взгляд, это может показаться невинной аналогией, попыткой оправдать текущие колоссальные затраты на ИИ. Но проблема в том, что это сравнение абсолютно некорректно. Более того, оно обесценивает саму человеческую природу, сводя нас лишь к потреблению калорий, и намекает на то, что глобальная философия Альтмана может иметь пугающе антигуманный характер.

Некорректное сравнение

Заявление Альтмана вводит в заблуждение. Оно подразумевает, что ИИ и человек обладают равными возможностями, что ИИ учится эффективнее и, в целом, лучше справляется с задачами. Поскольку ни одно из этих утверждений не является правдой, базис для такого сравнения рушится. Но даже если бы это было так, подобная риторика все равно обесценивает человеческий опыт и саму жизнь. Мы вернемся к вопросам этики чуть позже, а пока давайте разберемся с технической стороной.

Начнем с того, что люди по-прежнему гораздо способнее, чем ИИ. Существует множество исследований, подтверждающих это, но наиболее показательным является работа Центра безопасности ИИ (CAIS) и Scale AI. Исследователи решили проверить, насколько полезен ИИ в реальном мире. Они дали шести ведущим моделям настоящие фриланс-задачи и измерили уровень их успеха. Выяснилось, что даже самые лучшие модели смогли выполнить лишь 2,5% заданий. Это означает уровень провала в 97,5%!

Чтобы сравнение Альтмана имело хоть какой-то смысл, люди и ИИ должны обладать сопоставимыми возможностями. Но в реальном мире ИИ все еще бесконечно далек от человеческого уровня.

И этот разрыв вряд ли сократится в ближайшее время. Недавний масштабный опрос исследователей в области ИИ показал, что 76% из них не верят, что нынешние технологии можно просто «масштабировать» до уровня сильного ИИ (AGI). Иными словами, для создания ИИ, сопоставимого с человеческим мозгом, потребуются совершенно новые подходы, а не простое наращивание текущих мощностей. Альтман должен это знать, учитывая, что недавнее исследование самой OpenAI показало: увеличение вычислительной мощности или объема данных не способно уменьшить количество «галлюцинаций» ИИ, и у них пока нет рабочего метода для решения этой проблемы.

Но ради интереса давайте представим, что ИИ так же способен, как и мы. Даже в этом случае люди остаются эффективнее на уровне конкретных задач и в самом процессе обучения. Причем эффективнее поразительно!

Человеческий мозг потребляет всего около 12 ватт мощности — это меньше, чем обычная светодиодная лампочка. Это означает, что за 20 лет, которые требуются человеку, чтобы вырасти и «поумнеть», он потребляет примерно 2102 кВт·ч энергии. Для понимания масштаба: это чуть больше энергии, чем средний электромобиль тратит за год (при пробеге около 12 000 км в год).

Для сравнения, старая, гораздо меньшая и менее способная модель ChatGPT-3 потребила при обучении около 1287 МВт·ч. Получается, что человеческий мозг использует всего 0,16% от энергии, затраченной на обучение устаревшего ИИ. Энергии от обучения ChatGPT-3 хватило бы, чтобы проехать на электромобиле почти восемь миллионов километров. Но самое интересное: ожидается, что обучение следующих поколений моделей потребует в разы больше энергии.

Почему такая колоссальная разница? Потому что люди невероятно эффективны в обучении. Как отметил пионер ИИ Ян Лекун, 17-летнему подростку требуется всего 10–20 часов, чтобы научиться безопасно водить машину. При этом ИИ, несмотря на скармливание ему данных о миллиардах миль пробега и использование мощнейших систем (GPS, 3D-карты, лидары и т.д.), все еще не может водить так же надежно и безопасно, как человек (подробнее об этом здесь). Мы учимся со скоростью света по сравнению с машинами.

Мы также эффективнее на уровне выполнения задач.

Аналитики Foundamental подсчитали, что профессиональный 3D-моделлер может создавать около 1000 полигонов в час, тратя на это примерно 96 Вт·ч энергии. Таким образом, человеку потребуется 13 кВт·ч для моделирования частного дома, в то время как современный ИИ потратит на ту же задачу около 11,4 МВт·ч. Человек эффективнее в 875 раз!

Точно так же исследование Нью-Йоркского университета показало, что современные ИИ-модели потребляют от 24 до 36 Вт·ч энергии для написания одной страницы текста (500–750 слов). Человек пишет со скоростью 40–60 слов в минуту с учетом редактирования. Даже не самому быстрому автору понадобится 20 минут на страницу, что означает энергозатраты мозга максимум в 4 Вт·ч. Человек эффективнее в 6–9 раз! И это при том, что ИИ-текст почти всегда требует серьезной редактуры.

Глядя на эти цифры, остается лишь гадать: либо Альтман действительно не до конца понимает принципы работы ИИ, либо он намеренно искажает факты ради продвижения своего продукта.


Как не проиграть в эффективности, когда правила игры меняются

Да, физически мозг человека эффективнее. Но глупо отрицать, что нейросети уже перекраивают целые индустрии. И если вы используете ИИ только для того, чтобы делать свою старую работу немного быстрее, вы все еще действуете как потребитель.

Стать создателем — войти в те самые 5% людей, свободно владеющих ИИ — требует фундаментального сдвига в мышлении. Речь больше не идет о том, чтобы спрашивать: «Как этот инструмент может выполнить мою задачу?». Речь идет о том, чтобы спросить: «Как этот инструмент может полностью устранить, масштабировать или переизобрести всю мою операционную модель?»

И чтобы стать таким творцом, вам нужен правильный арсенал. Ограничиваться одним ChatGPT — значит добровольно сужать свои возможности.

Сервисы вроде BotHub дают доступ к целой экосистеме топовых нейросетей в одном окне (от генерации сложных текстов до глубокого анализа данных). Это позволяет вам экспериментировать, сравнивать результаты разных моделей и строить те самые системы, о которых говорит статистика.

a0fcd18c93b77cd5181f5a10897e08cb.png

Для доступа не требуется VPN, можно использовать российскую карту.


Скрытая философия

Итак, технически слова Альтмана крайне спорны. Но как насчет этики?

В конце концов, он сравнивает потребление ресурсов ИИ с ресурсами, необходимыми людям для выживания, полностью игнорируя ценность человеческого опыта, наши права и саму суть нашего существования. Подобное упрощение не только сводит нашу ценность как живых существ к банальному энергопотреблению, но и намекает на то, что ИИ якобы имеет право претендовать на ограниченные ресурсы планеты, потому что он «кажется» более энергоэффективным.

Эта идеология — своеобразная, искаженная версия трансгуманизма, которая десятилетиями зрела в Кремниевой долине. Вместо стремления преодолеть биологические ограничения, она превратилась в форму цифровой евгеники, используемой для легитимизации власти технократов. Это философия, которая позволяет определенной элите игнорировать социальные нормы ради извлечения максимальной выгоды.

Альтман косвенно намекает: люди с их желаниями, мечтами, любовью, творчеством, семьями, радостями и печалями рассматриваются не как партнеры, которых технологии должны усиливать, а скорее как препятствие на пути роста машины.

И не один Альтман транслирует подобные мысли. Вспомните, как Питер Тиль долго рассуждал о том, должно ли человечество вообще выжить в эпоху ИИ. Это движение берет начало от кибер-анархо-капиталистов 90-х, и, к сожалению, сегодня многие технологические лидеры в той или иной мере разделяют эти взгляды.

История показывает, что отношение к людям исключительно как к ресурсу или помехе — это опасный путь, который заводит общество в тупик.

Вместо итогов

Именно поэтому подобные интервью вызывают столько вопросов. Тревожная философия Альтмана часто остается без должного критического осмысления в медиа-пространстве. Ему просто дают трибуну для вещания. Однако в этот раз маска слегка сдвинулась, подав нам всем явный предупреждающий сигнал.

Когда-нибудь, если эта система столкнется с кризисом, мы скажем, что тревожные звоночки были видны с самого начала. У нас есть все данные, чтобы относиться к развитию технологий более осознанно. Вопрос лишь в том, начнем ли мы действовать? Поймут ли инвесторы, что этика — это важный фундамент бизнеса? Осознают ли регуляторы, что технологии должны служить обществу, а не амбициям узкой группы лиц? Я не знаю ответа, но искренне надеюсь, что мы найдем баланс до того, как эта оторванная от реальности идеология зайдет слишком далеко.

Источник

Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу [email protected] для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.

Вам также может быть интересно