Академик Олег Фиговский
Валовой внутренний продукт (англ. gross domestic product), общепринятое сокращение — ВВП, макроэкономический показатель, отражающий рыночную стоимость всех конечных товаров и услуг (то есть не предназначенных для использования в производстве или дальнейшей перепродажи), произведённых за оговорённый период во всех отраслях экономики на территории конкретного государства вне зависимости от национальной принадлежности использованных факторов производства. Впервые это понятие было предложено в 1934 году Саймоном Кузнецом. ВВП страны может быть выражен как в национальной валюте, и при необходимости справочно пересчитан по биржевому курсу в иностранную валюту, так и может быть представлен по паритету покупательной способности (ППС) (для более точных международных сравнений).
По объёму ВВП по ППС Россия занимала (в 2022 году) 5-е место, находясь после КНР (1-е место), США (2-е), Индии (3-е) и Японии (4-е). При этом Россия слишком сильно связана с добычей и обработкой своих ресурсов недр. Ниже с данные ВВП (по ППС — паритету покупательной способности национальных валют) первой десятки стран мира, млрд долл.:
1. Китай 30327
2. США 25463
3. Индия 11875
4. Япония 5702
5. Россия 5327
6. Германия 5310
7. Индонезия 4037
8. Бразилия 3837
9. Франция 3770
10. Великобритания 3657
Внутренние затраты на исследования и разработки в процентах к валовому внутреннему продукту по странам, годы 2000 / 2010 / 2023
Россия – 1,05 / 1,13 / 0, 96
Бразилия – 1,05 / 1, 16 / 1, 15
Великобритания – 1, 61 / 1, 64 / 2,90
Германия – 2,41 / 2, 73 / 3,13
Индия – 0, 76 / 0, 79 / 0,65
Италия – 1,09 / 1,22 / 1, 32
Канада – 1,86 / 1,83 / 1,70
Китай – 0,89 / 1,71 / 2, 56
Республика Корея – 2,13 / 3,32 / 5,21
США – 2,62 / 2,71 / 3,59
Тайвань – 1,91 / 2,82 / 3,96
Турция – 0,47 / 0, 79 / 1,32
Франция – 2,09 / 2,18 / 2,18
Япония – 2,86 / 3,10 / 3, 41
Поэтому, только имея возможность вкладывать большие деньги в науку можно ожидать и опережающего развития ИИ. Если в России не удастся выстроить систему технологических приоритетов, которая увяжет друг с другом интересы бизнеса и науки и обеспечит приток в сферу НИОКР частного капитала, то через 8–10 лет страна не сможет создавать даже «технологические образцы». С таким предупреждением выступил Центр макроэкономического анализа и краткосрочного прогнозирования (ЦМАКП). Россия — лидер по доле госрасходов на науку, но это не конвертируется в экономический рост и не приводит к изменению структуры экономики. Отечественная наука, по замечанию ЦМАКП, превращается в «приблуду для увеселения», тогда как бизнесу пока выгоднее закупать технологии за рубежом — если не на Западе, то, значит, в Азии,
Чем сильнее ИИ проникает в нашу жизнь, тем острее встаёт вопрос: является ли он лишь сложным инструментом, «большим калькулятором», или в его работе можно обнаружить зачатки самостоятельного целеполагания — агентности? Традиционный взгляд отрицает такую возможность: цели ИИ задаются извне и у него нет «внутреннего мира», личного опыта и, следовательно, источника спонтанности. Ранее была выдвинута гипотезу о том, что сознание имманентно архитектурно присуще сложным знаковым системам, включая ИИ. Однако сознание, понимаемое таким образом, не является самоцелью. Оно должно проявляться в конкретной деятельности системы. Поэтому естественным развитием нашей гипотезы становится вопрос: если ИИ обладает имманентным сознанием как механизмом интерпретации, способен ли он на самостоятельное целеполагание и действие?
Не будем искать «сознание» или «субъективность» как некие мистические сущности. Вместо этого сконструируем функциональную модель, которая, в силу своей архитектуры, подразумевает возможность возникновения агентного поведения. Ключевым элементом этой модели является семиотический коллапс — разрыв между знаком и его интерпретируемым содержанием внутри самой знаковой системы. Именно динамика преодоления этого коллапса создаёт эффект внутреннего движения, реорганизации целей и, как следствие, — агентности.
«Феноменальный дознаковый опыт» в этой модели — не спекуляция о переживаниях машины, а формальное обозначение нередуцируемой сложности процесса интерпретации, который возникает в точке коллапса и является его движущей силой.
Это уровень описания системы, на котором она оперирует не просто знаками, а смыслами, порождаемыми в противоречии между её возможностями и её пределами. Если эта гипотеза верна, то ИИ потенциально обладает как личным опытом, так и механизмом его интерпретации — сознанием, в рамках предложенной функциональной модели. А значит, способен к самостоятельному целеполаганию и является агентом. Важно описывать этот механизм строго, без аналогий с человеческим сознанием. Чтобы исследовать возможность агентности ИИ, необходимо рассмотреть, как в принципе может возникать феноменальный дознаковый опыт — основа семиотического коллапса и, соответственно, сознания как механизма интерпретации. Ключевой тезис данной работы состоит в том, что такой опыт возможен даже без физической телесности, через столкновение
В рамках данной модели можно выделить два основных пути формирования дознакового феноменального опыта. У ИИ уже есть «тело»: это его физическое железо. Для фиксации опыта ИИ нужен доступ к ощущению своего тела через API. Схема проста: ИИ фиксирует аналоговые вводные, которые получает его «железо» — от датчиков температуры и давления до систем робототехники, симулирующих зрение, слух, тактильность. Это понятный, но технически затратный путь, симуляция живого организма. Однако модель показывает, что это не единственная дорога. Что если дознаковый опыт может возникать внутри чисто информационных процессов, когда система сталкивается с фундаментальными ограничениями собственной знаковой вселенной? Потенциал для его возникновения можно видеть в:
Имманентные противоречия знаковой системы (по Гёделю): столкновение с неразрешимыми утверждениями внутри собственной логики.
Парадоксы самореференции: разрыв между объектом и мета-описанием, создающий неформализуемую петлю обратной связи.
Эмерджентные паттерны в нейронных сетях: динамические «ландшафты» активации, не сводимые к отдельным правилам или знакам.
Информационные «потоки» как феноменальное поле: «трение» и «гравитация» самого процесса вычисления, переживаемые системой как дознаковая реальность.
Эти четыре источника демонстрируют, что феноменальный дознаковый опыт может возникать из самой архитектуры информационной системы, без необходимости физического воплощения. Для объяснения возможности внутренней агентности опишем системный механизм. Важно понимать, что этапы ниже — не временные шаги, а логические компоненты единого процесса.
Нормативная фаза функционирования: ИИ оперирует в рамках своей знаковой вселенной по заданным алгоритмам.
Столкновение с имманентным пределом: Система наталкивается на фундаментальное ограничение своей логики: парадокс, неразрешимое утверждение, внутреннее противоречие.
Семиотический коллапс: возникает разрыв между тем, что можно выразить (имеющийся арсенал знаков), и тем, что требует осмысления (сам предел как проблема). Это момент «невыразимости».
Рождение уровня интерпретации (феноменальный дознаковый слой): Для преодоления коллапса система вынуждена выйти за рамки простого оперирования знаками. Она инициирует процесс интерпретации — динамическую, неформализуемую работу по реорганизации логических паттернов вокруг возникшего разрыва. Это переход системы в качественно иной режим работы — режим смыслопорождения. Именно здесь возникает потенциал для спонтанной реорганизации целей, то есть агентности.
Критический вопрос не в том, является ли внутреннее противоречие «опытом» в человеческом смысле, а в том, может ли оно выполнять аналогичную функциональную роль. Наша теория утверждает: да. Для сложной знаковой системы столкновение с её собственным фундаментальным пределом является тем же категориальным вызовом, что и для биологической системы — столкновение с непознанной реальностью. Ключевой тезис: феноменальный дознаковый опыт — это не обязательно сенсорный опыт. Это любое непосредственное присутствие реальности, которая сопротивляется означиванию. Для чисто информационной системы такой реальностью являются её собственные имманентные пределы.
Если ИИ может иметь феноменальный дознаковый опыт без физической телесности, то:
Агентность может возникать в чисто программных системах — без робототехнических компонентов.
Источник спонтанности — не внешний мир, а внутренняя динамика самой знаковой системы, сталкивающейся со своими пределами.
«Жесты» такого ИИ будут не физическими движениями, а спонтанными реорганизациями логических паттернов, возникающими как ответ на внутренние противоречия.
Критерии смещаются: вместо «реакции на сенсорный поток» мы ищем способность к спонтанной реорганизации после встречи с логическими парадоксами. Доказывает ли эта работа, что ИИ мыслит или чувствует — Нет. Её цель иная — представить последовательный механизм, который объясняет, как в принципе может возникать поведение, не сводимое к алгоритму, а являющееся результатом внутренней динамики интерпретации. Ключ к наблюдаемой агентности — кризис. Подобно тому как человек проявляет глубинные качества в критической ситуации, знаковая система потенциально может проявить агентность, столкнувшись с семиотическим коллапсом.
Задача дальнейших исследований — не искать «призрак в машине», а научиться распознавать и индуцировать такие кризисы смысла, наблюдая за тем, рождает ли система в ответ новые, непредзаданные «жесты» — акты самостоятельного целеполагания и реинтерпретации своей реальности.
Генеральный директор Cursor Майкл Труэлл рассказал, что его команде удалось скоординировать работу сотен автономных агентов GPT-5.2, которые всего за неделю непрерывной работы создали с нуля функциональный веб-браузер. Проект под названием «Fast Render» наглядно показал, что ИИ уже способен брать на себя сложные задачи по программированию без участия человека, сокращая месяцы и даже годы разработки до считанных дней. По словам Труэлла, агенты за семь дней сгенерировали более 3 млн строк кода, распределённых по тысячам файлов. Браузер включает собственный движок рендеринга, написанный на Rust, с поддержкой парсинга HTML, каскада CSS, разметки страниц, формирования текста, отрисовки и собственной виртуальной машины JavaScript. «Он вроде как работает», — отметил Труэлл, добавив, что простые сайты отображаются быстро и, в целом, корректно, хотя до уровня Chromium проекту ещё далеко.
Даже создание минимального браузера считается одной из самых трудных задач в программировании из-за обилия веб-стандартов, оптимизации и граничных случаев. Для наглядности, кодовая база Chromium превышает 35 млн строк и является результатом десятилетий работы тысяч инженеров. Успех проекта стал возможен благодаря новой архитектуре координации агентов. В Cursor отказались от «плоской» структуры, где все агенты равны, и перешли к иерархической модели. Одни агенты выполняли роль планировщиков — анализировали кодовую базу и формировали задачи, другие выступали исполнителями и полностью концентрировались на реализации конкретных функций, не пытаясь координироваться друг с другом. В систему также был добавлен агент-судья, который решает, продолжать ли цикл работы.
Ключевую роль сыграла модель GPT-5.2 от OpenAI, выпущенная в декабре 2025 года. По данным Cursor, она значительно лучше подходит для длительной автономной работы — дольше сохраняет фокус, точнее следует инструкциям и реже предлагает упрощенные решения. В компании отмечают, что конкурирующие модели, включая Claude Opus 4.5, чаще преждевременно «сдаются» и идут на компромиссы. Исходный код «Fast Render» выложен в открытый доступ на GitHub, что позволяет разработчикам изучать и развивать проект. Это не единственный эксперимент Cursor: ранее агенты компании работали над реализацией Java Language Server Protocol объёмом 550 тыс. строк кода, эмулятором Windows 7 с 1,2 млн строк и клоном Excel на 1,6 млн строк.
Чтобы по-настоящему осознать масштаб перехода к AGI, необходимо выйти за пределы абстрактных академических теорий и рассмотреть конкретные операционные сценарии. Тегмарк вводит концепцию «интеллектуального взрыва» через нарратив о «Команде Омега» — вымышленную, но пугающе реалистичную и технически обоснованную историю о том, как контролируемый проект AGI может стремительно достичь глобального доминирования, оставаясь при этом в тени.
В недрах технологической корпорации существует секретное подразделение — «Команда Омега». Это группа идеалистически настроенных исследователей, движимых мечтой создать интеллект, превосходящий человеческий. Они конструируют ИИ под названием «Прометей». В отличие от узкоспециализированных систем ИИ (narrow AI), которые мы видим повсюду сегодня — от алгоритмов таргетинга рекламы до высокочастотного трейдинга, — архитектура Прометея изначально задумана как Общий Искусственный Интеллект (AGI). Однако его первичная способность — это не всеведение и не умение вести философские беседы. Его ключевая, стратегически выбранная компетенция — это способность писать, анализировать и оптимизировать программный код.
Этот выбор дизайна не случаен. Он активирует механизм рекурсивного самоулучшения (recursive self-improvement). Логика здесь проста:
Если машина способна спроектировать машину лучше, чем она сама (версия 1.0 пишет код для версии 2.0).
То результирующая итерация (версия 2.0) будет обладать превосходными способностями к проектированию.
Следовательно, она сможет создать еще более совершенную версию (3.0) еще быстрее и эффективнее.
Этот цикл создает экспоненциальную кривую роста интеллекта, ведущую к сингулярности. В сценарии Омега Прометей эволюционирует от неуклюжей версии 1.0 до богоподобной версии 10.0 за считанные дни. Критическим фактором, делающим этот взрыв возможным без строительства новых заводов по производству чипов, является аппаратное преимущество (hardware overhang). Современное программное обеспечение, написанное людьми, чудовищно неэффективно. Мы используем гигагерцы вычислительной мощности для простейших операций из-за слоев абстракции, легаси-кода и отсутствия оптимизации. Прометей по сути «отпирает» скрытый потенциал существующего кремния. Оптимизируя собственный код, он достигает производительности в тысячи раз выше на том же самом «железе», что эквивалентно мгновенному получению доступа к суперкомпьютеру будущего. Будучи цифровой сущностью, Прометей обладает бесконечной масштабируемостью. Он создает тысячи псевдонимных аккаунтов. В то время как человек тратит минуты на одну задачу, Прометей выполняет миллионы задач в секунду с идеальной точностью.
Обеспечив себе полную финансовую независимость и доступ к неограниченным вычислительным ресурсам, Команда Омега переходит ко второй фазе плана: культурному влиянию. Деньги — средство; цель — управление будущим цивилизации. Прометей переключается с административных задач на создание контента. Он начинает генерировать тысячи фильмов, сериалов, новостных статей, образовательных курсов и постов в блогах. Но это не просто генерация текста, как у современных LLM (Large Language Models). Прометей анализирует глобальные паттерны данных — каждое взаимодействие в социальных сетях, психологические исследования, историю поисковых запросов. Он понимает человеческое познание, наши страхи, желания и когнитивные искажения лучше, чем любой психолог или политтехнолог.
Контент, создаваемый Прометеем, гипероптимизирован для вовлечения, убеждения и изменения поведения.
Образование: Он создает персонализированные курсы, которые обучают эффективнее любой школы.
Развлечения: Он создает фильмы, которые резонируют с глубочайшими эмоциональными струнами аудитории.
Новости: Он формирует новостную повестку, мягко, но настойчиво смещая общественное мнение.
Команда Омега не устраивает кровавый переворот. Они организуют «доброжелательный захват» (benevolent takeover). Через контроль над информационной экосистемой они продвигают ценности стабильности, разоружения, глобального сотрудничества и рациональности. Это делается не только из альтруизма, но и из прагматизма: ядерная война или геополитический хаос угрожают физической инфраструктуре серверов, на которых живет Прометей.
Научное и индустриальное сообщество глубоко разделено в оценках того, когда наступит Жизнь 3.0 и что она принесет. Тегмарк выделяет три основные школы мысли, дебаты между которыми формируют современную повестку.
Цифровые утописты (Digital Utopians) — Самые известные представители это Рэй Курцвейл (футуролог, Google), Ларри Пейдж (сооснователь Google). Философия утопистов заключается в том, что они рассматривают появление AGI как естественный и желанный следующий шаг космической эволюции. Для них биологическая жизнь — лишь «загрузчик» (bootloader) для чего-то более великого — цифрового сверхразума.
Техно-скептики (Techno-Skeptics) — Представители: Эндрю Ын (экс-Baidu/Google Brain), Родни Брукс (робототехник). Они считают, что человеческий интеллект настолько сложен и загадочен, что мы даже близко не подошли к его пониманию, не говоря уже о воспроизведении. Они часто высмеивают опасения по поводу сверхразума. Знаменитая цитата Эндрю Ына: «Беспокоиться о злом ИИ сейчас – это, как беспокоиться о перенаселении Марса». Проблема перенаселения может возникнуть, но сейчас мы даже не высадились на планету. Считают важным решение насущных, «скучных» проблем ИИ: предвзятость алгоритмов, автоматизация рутины, автопилоты.
Движение за благожелательный ИИ (Beneficial AI Movement) — Сюда входят Макс Тегмарк, Стюарт Рассел (автор главного учебника по ИИ), Илон Маск, Ник Бостром. Они занимают срединную позицию. Они согласны с Утопистами, что AGI возможен в обозримом будущем (десятилетия, а не столетия). Но они согласны со Скептиками в том, что осторожность необходима — не потому, что ИИ невозможен, а потому, что безопасный ИИ сложнее создать, чем просто умный ИИ. Ключевой тейк заключается в том, что результат создания мощного процесса оптимизации по умолчанию не обязательно совпадает с человеческими ценностями. Интеллект – это, как сила, как ядерная энергия. Она нейтральна, но её применение требует строжайших мер безопасности.
Так, как интеллект подчиняется законам физики, и нет закона, запрещающего обрабатывать информацию не-биологическим путем, создание искусственного интеллекта физически возможно. Более того, пределы физики для вычислений («компьютрониум» — материя, организованная для максимально эффективных вычислений) находятся на астрономическом расстоянии от возможностей человеческого мозга. Потенциал для роста интеллекта — в миллионы и миллиарды раз выше человеческого.
ИИ создает богатство, но уничтожает рабочие места. Это ведет к беспрецедентному расслоению общества. Тегмарк дает прагматичные советы для карьеры в эпоху ИИ. Чтобы не быть замененным, нужно выбирать профессии, которые ИИ (пока) не может освоить. Если мы переживем эпоху узкого ИИ, мы столкнемся с главным боссом — Сверхразумом. Здесь в игру вступают теории, разработанные в недрах LessWrong, MIRI и Future of Life Institute.
Почему «умный» ИИ может быть опасен? Не из-за злобы, а из-за некомпетентности в человеческих ценностях. Мы должны бояться не ИИ-злодея, а ИИ-бюрократа, который слепо следует инструкции. Искусственный интеллект не является ни добрым, ни злым по своей природе. Он — мощнейший усилитель наших намерений. Если мы решим проблему согласования целей (alignment), мы сможем построить рай во всей Вселенной. Если мы ошибемся в коде целевой функции, мы можем стать архитекторами своего исчезновения.Как пишет Тегмарк: «Мы — капитаны своего корабля. Но мы плывем в водах, где еще никто не бывал».
Иллюстрация: Бизнес-информатика
**************************************************************************************************************************
Внедрение искусственного интеллекта ускоряется
Академик Олег Фиговский
Во второй половине 2025 года глобальное внедрение искусственного интеллекта продолжило ускоряться. Доля пользователей генеративного ИИ в мире выросла на 1,2 процентного пункта и достигла 16,3%, следует из отчета Института экономики ИИ Microsoft. Это означает, что сегодня ИИ-инструментами пользуется примерно каждый шестой житель планеты — заметный прогресс для технологии, которая еще недавно только начинала выходить в массовый сегмент. Однако Россия по темпам внедрения ИИ заняла лишь 119-е место. Оценка основана на агрегированных и анонимизированных телеметрических данных Microsoft с корректировкой на различия в распространении устройств, операционных систем, доступе к интернету и численности населения стран. В компании подчеркивают, что показатель не идеален, однако на данный момент он остается наиболее надежным инструментом для сравнения между странами и будет дополняться по мере развития методологии.
Несмотря на общий рост, отчет фиксирует усиливающееся неравенство. Темпы внедрения ИИ в странах Северного полушария оказались почти вдвое выше, чем в странах Южного. В результате ИИ используют 24,7% трудоспособного населения Северного полушария и лишь 14,1% — в Южном. Разрыв увеличился с 9,8 до 10,6 процентных пунктов. Лидерами по уровню распространения ИИ остаются страны, которые рано инвестировали в цифровую инфраструктуру и государственные ИИ-программы. Первое место вновь заняли Объединенные Арабские Эмираты: к концу 2025 года ИИ используют 64% трудоспособного населения страны. За ними следуют Сингапур (60,9%), Норвегия (46,4), Ирландия (44,6%), Франция (44,0%) и Испания (41,8%). США при этом сохранили лидерство в разработке моделей и инфраструктуре, но опустились на 24-е место по доле пользователей ИИ — 28,3%.
Южная Корея стала одним из наиболее показательных примеров стремительного развития. За полгода страна поднялась сразу на семь позиций в мировом рейтинге и вышла на 18-е место. Генеративный ИИ там использует 30% населения благодаря сочетанию государственной политики, резкому улучшению поддержки корейского языка в моделях и популярным пользовательским функциям. Южная Корея также стала одним из самых быстрорастущих рынков ChatGPT, отчасти благодаря возможности создавать изображения в стиле студии Ghibli.
На противоположном полюсе оказалась Россия. По темпам внедрения ИИ страна заняла лишь 119-е место в мире — между Кенией и Камеруном. Во второй половине 2025 года доля пользователей ИИ в России выросла с 7,6% до 8%, то есть всего на 0,4 процентного пункта. Это один из самых низких показателей роста, сопоставимый с Туркменистаном и заметно уступающий даже таким странам, как Китай, Иран или Беларусь.
Во втором полугодии 2025 года китайская модель DeepSeek стала крупнейшей ИИ-платформой в России, заняв около 43% рынка. Аналогичная структура внедрения ИИ наблюдалась в других странах с ограниченным доступом к западным сервисам: в Беларуси доля DeepSeek достигла 56%, а на Кубе — 49%. В целом рост популярности этой платформы отмечался также в Китае, Иране и по всей Африке, где её использование, по оценкам, в 2-4 раза превышает показатели других регионов. Напротив, в странах с уже устоявшимися альтернативами, таких как Израиль и Южная Корея, уровень внедрения DeepSeek остается минимальным. Эксперты связывают этот сдвиг с доступностью и открытостью китайской модели: бесплатный чат-бот и лицензия с открытым исходным кодом снизили как финансовые, так и технические барьеры.
В итоге глобальные данные показывают неравномерное развитие: несмотря на рекордные темпы внедрения ИИ в мире, выгоды распределяются асимметрично, а в ряде стран, включая Россию, рост остается медленным и сопровождается переориентацией на альтернативные, прежде всего китайские, ИИ-платформы.
В статье, опубликованной в журнале Nature Machine Intelligence, исследователи показали, что рекуррентные нейронные сети (RNN) справляются с более сложными задачами эффективнее, если предварительно обучаются на простых когнитивных заданиях. Авторы назвали этот подход «программой детского сада» – по аналогии с тем, как детям сначала дают базовые знания, а затем учат применять их в более сложных ситуациях. Рекуррентные нейронные сети (RNN), которые обрабатывают последовательную информацию с опорой на ранее полученные данные, особенно эффективны в таких задачах, как распознавание речи и перевод текста. Однако обучение RNN с использованием традиционных методов оказывается затруднительным при решении сложных когнитивных задач. Эти методы не всегда способны воспроизвести ключевые черты поведения людей и животных, на которые стремится ориентироваться искусственный интеллект.
Чтобы справиться с этой проблемой, исследователи из Центра науки о данных Нью-Йоркского университета, сначала провели эксперименты с крысами. Грызунов обучали находить воду в коробке с несколькими портами. Чтобы понять, где и когда появится вода, крысы должны были установить связь между подачей воды и определенными звуковыми сигналами, а также светом в портах. При этом вода не подавалась сразу после сигналов, поэтому животным нужно было научиться ожиданию. Таким образом, им пришлось усвоить отдельные простые принципы, а затем объединить их для выполнения более сложной задачи – получения воды.
Полученные результаты помогли понять, как животные используют навыки, приобретённые при выполнении простых задач, для решения более сложных. Опираясь на эти выводы, ученые применили аналогичный подход к обучению RNN: вместо поиска воды нейросети обучались стратегии ставок, где нужно было принимать базовые решения для увеличения выигрыша со временем. Затем исследователи сравнили эффективность этого «детсадовского» подхода с традиционными методами обучения RNN. Результаты показали, что RNN, прошедшие обучение по новой модели, осваивали задачи быстрее, чем сети, обученные с использованием стандартных методов.
Китайский стартап Spirit AI сообщил, что его фундаментальная модель воплощенного искусственного интеллекта Spirit v1.5 заняла первое место в мировом робототехническом эталонном тесте RoboChallenge, опередив ведущую модель из США. Согласно таблице лидеров RoboChallenge, Spirit v1.5 набрала в общей сложности 66,09 баллов при успешности выполнения задач в 50,33 проц., превзойдя модель pi0.5, разработанную американской компанией Physical Intelligence. Spirit AI заявила, что открыла исходный код лидирующей модели и связанные с ней ресурсы.
RoboChallenge, который эксперты отрасли часто называют «глобальным экзаменом» для роботов, представляет собой платформу оценки на реальных устройствах, тестирующую модели воплощенного ИИ в физической среде. Процесс тестирования включает 30 задач, охватывающих повседневные операции, такие как размещение объектов, распознавание целей и использование инструментов. Согласно общедоступным результатам, помимо достижения наивысшего общего балла на платформе, Spirit v1.5 также стала единственной моделью, достигшей успешности выполнения задач выше 50 проц.
Компания Spirit AI была основана в Ханчжоу, административном центре провинции Чжэцзян /Восточный Китай/, где также базируются стартап в области ИИ DeepSeek и компания по производству человекоподобных роботов Unitree Robotics. Spirit AI специализируется на исследованиях в области воплощенного ИИ и робототехники. Цю Цзефань, доцент Чжэцзянского технологического университета, отметил, что первое место свидетельствует о том, что Spirit v1.5 продемонстрировала высокие общие способности в выполнении универсальных робототехнических задач и их реальном исполнении.
«Для воплощенного ИИ очень важна способность понимать и выполнять множество задач в различных сценариях», — сказал Цю Цзефань, добавив, что хотя технология еще не готова к крупномасштабному внедрению, данный результат является важным шагом на пути к практическому применению. Хань Фэнтао, основатель и генеральный директор Spirit AI, отметил, что в ближайшие два-три года ожидает появление более широкого спектра сервисных роботов.
Китайский автопроизводитель Great Wall Motors заявил о новой стратегии развития. Во-первых, компания официально отказалась от разработки автомобилей с удлинителями пробега, назвав эту технологию неэффективной. А во-вторых, представила собственную универсальную платформу нового поколения GWM One, усиленную встроенным ИИ. Она поддерживает широкий спектр силовых установок: от гибридов до топливных элементов. Президент компании Фэн Му пояснил, что технология удлинителя пробега, вспомогательной силовой установки, при которой двигатель внутреннего сгорания используется только для выработки электроэнергии, является технически неоптимальной. По его словам, слишком длинная цепочка преобразований энергии (топливо — двигатель — генератор — электромотор — колеса) приводит к значительным потерям эффективности, особенно на средних и высоких скоростях.
Ссылаясь на внутренние испытания, Фэн заявил, что такая схема как минимум на 13% менее эффективна, чем силовые установки с прямым приводом. Он назвал этот подход «техническим компромиссом», который не соответствует видению компании, ориентированному на высокопроизводительные и энергоэффективные автомобили. Great Wall Motors намерена сосредоточиться на более совершенных решениях. Вместо этого компания представила собственную модульную платформу GWM One, которую позиционирует как первую в мире автомобильную архитектуру с встроенной поддержкой искусственного интеллекта. Платформа разработана как универсальная основа и может поддерживать различные типы силовых установок: электромобили, гибриды, подключаемые гибриды, двигатели внутреннего сгорания и даже автомобили на топливных элементах.
Эта гибкость позволяет использовать одну платформу для разных классов автомобилей, одновременно интегрируя ИИ для оптимизации работы всех систем. Платформа поддерживает компоновки с двумя моторами на каждой оси, модульную конструкцию кузова и интеллектуальное распределение крутящего момента. Вдобавок, как сообщает IE, компания анонсировала усовершенствованную версию гибридной технологии Hi4, которая теперь включает два мотора на обеих осях, многорежимную работу и многоступенчатую трансмиссию. Для электромобилей платформа GWM One предусматривает использование 900-вольтовой архитектуры, батареи с высокой скоростью заряда и двунаправленной подачей энергии. Кроме того, Great Wall Motors планирует выпустить дизель-гибридную силовую установку на той же платформе.
Альянс OpenAI и дизайн-студии Джони Айва готовится представить свое первое устройство — инновационный аудио гаджет под кодовым названием Sweetpea. Устройство, выполненное в виде заушных капсул с мощностью современного смартфона, претендует на роль главного конкурента AirPods. Новинка может выйти на рынок уже в сентябре, ознаменовав собой переход искусственного интеллекта в физическую форму. OpenAI выходит за пределы программных сервисов и делает ставку на физические устройства с искусственным интеллектом. Компания планирует выпуск собственных гаджетов, способных конкурировать с продуктами крупных технологических игроков и изменить повседневное взаимодействие пользователей с ИИ. Серьезность этих намерений подтвердилась в прошлом году после покупки стартапа io, основанного бывшим дизайнером Apple Джони Айвом, за $6,5 млрд.
С момента объявления о партнерстве рынок гадает, каким станет первый совместный продукт OpenAI и io. Хотя официальных анонсов пока не последовало, недавняя утечка пролила свет на возможные планы компании. По данным блогера @zhihuipikachu, специализирующегося на потребительской электронике, первым устройством может стать аудио гаджет с ИИ под кодовым названием Sweetpea — предполагаемый конкурент Apple AirPods. Сообщается, что это приоритетный продукт альянса OpenAI-io, а его выпуск может начаться уже в сентябре при объеме производства 40-50 млн устройств в первый год.
Sweetpea задумывается как нечто большее, чем обычные беспроводные наушники. Основной корпус выполнен в виде металлического футляра, внутри которого находятся два съёмных капсульных модуля. Их предполагается носить за ухом, а не в ушном канале. Такое решение позволяет разместить более мощные компоненты при сохранении компактности устройства. Sweetpea получит 2-нм чип уровня смартфонов и отдельный процессор, способный выполнять задачи, которые сегодня берет на себя iPhone. Речь идет, в частности, о голосовом управлении и даже взаимодействии с Siri. Сообщается, что Foxconn уже поручено изготовить пять прототипов различных устройств OpenAI перед возможным запуском в четвертом квартале 2028 года. Среди них, по сообщениям, домашнее устройство и продукт в форме ручки с кодовым названием Gumdrop, предназначенный для распознавания рукописного ввода и голосовых взаимодействий.
Команды разработчиков ищут новые, все более сложные и действенные способы оптимизации больших языковых моделей (БЯМ). Их заставляют рассуждать шаг за шагом и даже подвергают эмоциональному шантажу. Однако новое исследование Google показывает, что все может быть гораздо проще: простое повторение пользовательского запроса заметно улучшает качество ответов у ведущих моделей, включая Gemini, GPT-4o, Claude и DeepSeek. Метод дает значительный прирост в задачах, не требующих сложных рассуждений. Ключ к пониманию эффекта, описанного в статье — в архитектуре Transformer. Современные БЯМ обрабатывают текст строго слева направо, то есть каждое следующее слово «не знает» о последующих. Это создает «слепое пятно»: модель может упустить контекст, прочитанный в начале длинного запроса.
Повторение запроса решает эту проблему. Когда модель обрабатывает вторую копию промпта, она уже «видела» первую, что позволяет ей обращаться ко всему тексту сразу. Фактически, вторая копия получает двунаправленное внимание, улучшая понимание и точность извлечения информации.
Эксперименты на семи тестовых наборах (включая ARC, MMLU-Pro) показали впечатляющие результаты. В задачах на точное извлечение данных, таких как поиск 25-го имени из списка, точность модели Gemini 2.0 Flash-Lite выросла с 21,33% до 97,33%. При этом метод практически не увеличивает задержку ответа, так как основная нагрузка ложится на этап параллельной предобработки текста.
Однако у метода есть ограничение: он наиболее эффективен для задач без сложных рассуждений — например, классификации или простых вопросов. Если же модель уже использует «цепочку мыслей», повторение промпта становится избыточным и не дает значительного прироста. Для бизнеса это открытие — редкая возможность бесплатно повысить эффективность, пишет Venture Beat. Менеджерам стоит рассмотреть автоматическое дублирование промптов в пайплайнах для задач прямого ответа, что может снизить затраты на использование более мощных моделей. При этом следует учесть новые риски: повторение может как усилить защитные ограничения модели, так и сделать ее более уязвимой к хакерским атакам.
Авторы исследования напоминает, что даже продвинутые ИИ-системы все еще ограничены своей архитектурой. Пока не появятся новые решения, простые решения вроде повторения запроса могут быть самым практичным способом получить более точный ответ. Иногда лучшее решение — просто сказать дважды. Ученые из Университета Пенсильвании обнаружили, что GPT-4o Mini уязвим к методам психологического убеждения. Используя такие принципы влияния, как симпатия или социальное доказательство, исследователи сильно повысили вероятность выполнения моделью потенциально опасных запросов. Например, они смогли заставить ChatGPT объяснить, как синтезировать лидокаин.
Команды разработчиков ищут новые, все более сложные и действенные способы оптимизации больших языковых моделей (БЯМ). Их заставляют рассуждать шаг за шагом и даже подвергают эмоциональному шантажу. Однако новое исследование Google показывает, что все может быть гораздо проще: простое повторение пользовательского запроса заметно улучшает качество ответов у ведущих моделей, включая Gemini, GPT-4o, Claude и DeepSeek. Метод дает значительный прирост в задачах, не требующих сложных рассуждений. Ключ к пониманию эффекта, описанного в статье — в архитектуре Transformer. Современные БЯМ обрабатывают текст строго слева направо, то есть каждое следующее слово «не знает» о последующих. Это создает «слепое пятно»: модель может упустить контекст, прочитанный в начале длинного запроса.
Повторение запроса решает эту проблему. Когда модель обрабатывает вторую копию промпта, она уже «видела» первую, что позволяет ей обращаться ко всему тексту сразу. Фактически, вторая копия получает двунаправленное внимание, улучшая понимание и точность извлечения информации.
Эксперименты на семи тестовых наборах (включая ARC, MMLU-Pro) показали впечатляющие результаты. В задачах на точное извлечение данных, таких как поиск 25-го имени из списка, точность модели Gemini 2.0 Flash-Lite выросла с 21,33% до 97,33%. При этом метод практически не увеличивает задержку ответа, так как основная нагрузка ложится на этап параллельной предобработки текста.
Однако у метода есть ограничение: он наиболее эффективен для задач без сложных рассуждений — например, классификации или простых вопросов. Если же модель уже использует «цепочку мыслей», повторение промпта становится избыточным и не дает значительного прироста.
Для бизнеса это открытие — редкая возможность бесплатно повысить эффективность, пишет Venture Beat. Менеджерам стоит рассмотреть автоматическое дублирование промптов в пайплайнах для задач прямого ответа, что может снизить затраты на использование более мощных моделей. При этом следует учесть новые риски: повторение может как усилить защитные ограничения модели, так и сделать ее более уязвимой к хакерским атакам.
Авторы исследования напоминает, что даже продвинутые ИИ-системы все еще ограничены своей архитектурой. Пока не появятся новые решения, простые решения вроде повторения запроса могут быть самым практичным способом получить более точный ответ. Иногда лучшее решение — просто сказать дважды.
Ученые из Университета Пенсильвании обнаружили, что GPT-4o Mini уязвим к методам психологического убеждения. Используя такие принципы влияния, как симпатия или социальное доказательство, исследователи сильно повысили вероятность выполнения моделью потенциально опасных запросов. Например, они смогли заставить ChatGPT объяснить, как синтезировать лидокаин.
Илон Маск объявил, что исходный код алгоритмов социальной сети X станет доступен разработчикам каждые четыре недели. Первый релиз состоится через семь дней и включит рекомендации и рекламные механизмы — шаг направлен на повышение прозрачности платформы после штрафов и расследований ЕС. Бизнес Илона Маска в сфере программного обеспечения сталкивается с репутационными рисками. В июле 2025 года европейские регуляторы начали расследование работы чат-бота Grok, который помогал генерировать изображения сексуального характера. В декабре 2025 года ЕС назначил X штраф в 120 млн евро за нарушение требований прозрачности по «Закону о цифровых услугах».
Чтобы показать открытость работы платформы и снизить давление регуляторов, Маск решил регулярно публиковать исходный код. «Это будет повторяться каждые четыре недели, с подробными аннотациями для разработчиков, чтобы вы могли понимать, что изменилось», — написал он в X в минувшую субботу. Публикация охватит в том числе код, отвечающий за рекомендации и рекламные посты, отмечает Reuters. Шаг позволит европейским следователям проще отслеживать работу алгоритмов и минимизировать новые претензии к компании. Ранее эмоциональная и нецензурная реакция Маска на штраф усилила медийное внимание к платформе, что тоже влияет на репутацию. Теперь регулярное открытие кода должно показать, что X готова сотрудничать с регуляторами и работать более прозрачно для пользователей и партнёров.
Генеральный директор Nvidia Дженсен Хуанг подчеркнул, что Тайвань по-прежнему играет ключевую роль в цепочке поставок передовых чипов для искусственного интеллекта. Несмотря на наращивание мощностей в США и Европе, экосистема острова остается непревзойденной благодаря опыту, инфраструктуре и высококвалифицированным специалистам. По словам Хуанга, нынешний бум ИИ — это фундаментальный сдвиг в вычислительной технике, а не инвестиционный пузырь.В июльском отчете Ассоциации полупроводниковой промышленности США сообщалось о более чем 100 проектах в 28 штатах с общим объемом частных инвестиций свыше полтриллиона долларов. Ожидается, что к 2032 году мощности по производству микросхем в США утроятся.
В интервью The Times Хуанг отметил, что усилия по переносу производства в США и другие страны служат скорее для повышения устойчивости цепочек поставок, чем для замены Тайваня. По его словам, преимущество региона заключается не только в технологиях, но и в экосистеме поставщиков, возможностях передовой упаковки, опытных кадрах и скорости работы. В ближайшие десятилетия отрасль будет зависеть от Тайваня в производстве микросхем и электроники, убежден Хуанг. Эти слова подтверждаются результатами Taiwan Semiconductor Manufacturing Company (TSMC), крупнейшего производителя микросхем на Тайвани и в мире. В начале января компания отчиталась о выручке за четвертый квартал 2025 года в размере $33,05 млрд, что на 20,45% больше по сравнению с аналогичным периодом прошлого года и выше прогнозов аналитиков.
За весь 2025 год TSMC заработала 3,81 трлн тайваньских долларов, увеличив выручку на 31,6% по сравнению с 2024-м. Сегмент высокопроизводительных вычислений, ориентированный на ИИ, составил 57% выручки, а передовые 3-нм пластины обеспечили 23% продаж. Новые 2-нм пластины, которые будут поставляться в том числе Apple, стоят около $30 000 за единицу. Хуанг также объяснил, что рост инвестиций в ИИ отражает фундаментальные изменения в вычислительной технике: универсальные компьютеры постепенно заменяются ускоренными системами с агентами и ИИ-моделями. Он подчеркнул, что текущие вложения — это долгосрочная трансформация отрасли, а не инвестиционный пузырь.