Автор: Академик Олег Фиговский, кавалер ордена «Инженерная Слава», Израиль
Робот с искусственным интеллектом «Электроник» из советского фильма «Приключения Электроника» хотел стать человеком, но не знал, как это сделать. Если для человека источником «добра и зла» является отношение к смерти, а этика — методом осознанного Преодоления, то остается только взяться, собственно, за решение проблемы. Это вопрос конструктивной биоэтики. Чтобы нагрузить роботов и ИИ человеческой этикой, необходимо как-то дать им понятие о смерти. Собственно, именно к этому пониманию пришел герой фильма Элик в итоге советского фильма, когда столкнулся со своей рамкой (бандитским магнитным чемоданом). Пока он не понимал ограничений, он не мог понять и людей.
Регулярно видим алармистские заявления от тех, кого быстрое развития технологий пугает, с триумфальным шествием по миру ChatGPT их количество увеличилось. А давайте порассуждаем там ли это опасно, как некоторые пишут. Давайте посмотрим, были ли в истории прецеденты, когда появление и массовое внедрение технологий выкидывало с рынка труда целые профессии? Или смещала баланс сил? Да. Было. И регулярно происходит. Один экскаватор может заменить десяток землекопов. Появление автомобилей позволило появиться профессии водителя, вполне почетной и престижной, но убило профессию ямщиков, да и по сопредельным сферам, связанным с содержанием лошадей ударило. Водопровод убил водовозов. Центральное отопление обрушило спрос на трубочистов и печников. Технологии развиваются достаточно давно. Появление новых суммарно дает лучший эффект, но остаются и те, кто потерял в деньгах и статусе, и те, кто выиграл. И есть противники – классика это история луддитов, которые уничтожали ткацкие станки. Даже конкретное внедрение влияет – построили мост на реке — жители радуются, а паромщик остался без работы.
Группа из 9 нынешних и бывших сотрудников OpenAI опубликовала открытое письмо с призывом защитить информаторов в индустрии ИИ. Они утверждают, что OpenAI ставит прибыль и рост выше безопасности и этики, что создает потенциальные угрозы для человечества. Сотрудники готовы дать показания против компании, если им обеспечат защиту. В письме также сказано, что компания использует жесткие тактики предотвращения утечек информации, включая обязательные соглашения о недискредитации для увольняющихся сотрудников. Напомним, на недавней конференции Сэм Альтман не смог объяснить, как работают нейросети OpenAI и ушел от ответа на вопрос об их безопасности.
Среди бьющих тревогу инсайдеров особенно примечателен Дэниел Кокотайло, который в 2022 году присоединился к OpenAI в качестве исследователя по вопросам управления. На этом посту он прогнозировал скорость развития ИИ и не был оптимистичен. Изначально Кокотайло считал, что универсальный искусственный интеллект (AGI), равный человеку по способностям, появится к 2050 году. Сейчас он полагает, что такой ИИ появится уже к 2027 году с вероятностью 50%. Кроме того, аналитик уверен, что продвинутый ИИ уничтожит человечество или катастрофически навредит ему с вероятностью 70%. В индустрии эту мрачную статистику называют p (doom).
Работая в OpenAI Кокотайло заметил, что компания крайне редко проводит надлежащие испытания перед выпуском продуктов. Совместный с Microsoft совет по безопасности никогда не замедлял развёртывание новых моделей, чтобы убедиться в их безопасности. Например, в 2022 году Microsoft начала тайно тестировать в Индии новую версию поисковика Bing на основе, как предполагается, GPT-4, самой продвинутой на тот момент модели. На это компания не запрашивала разрешение совета по безопасности. Кокотайло говорит, что когда поисковой сервис начал странно себя вести и неадекватно отвечать на вопросы пользователей, тестирование и не подумали сворачивать. Впрочем, пресс-секретарь Microsoft Фрэнк Шоу утверждает, что поисковик не содержал GPT-4 или любую другую модель OpenAI. В прошлом году Кокотайло говорил с Альтманом о необходимости выделять больше времени и ресурсов вопросам безопасности. Гендиректор согласился с ним, однако никаких действий не предпринял. В апреле 2024 года Даниил покинул компанию, разочаровавшись в её подходе к безопасности. Спустя месяц компанию покинули ещё 2 ключевых исследователя по вопросам безопасности — Илья Суцкевер и Ян Лейке. Их уход часть сотрудников восприняла как шаг назад. Они не подписали открытое письмо, но Лейке публично критиковал OpenAI и говорил, что компания слишком зациклилась на привлекающих внимание продуктах и прибыли, поэтому безответственно относится к потенциальным рискам.
К письму также присоединились уволившиеся из OpenAI Уильям Сондерс, Кэролл Уэйнрайт, Джейкоб Хилтон и Дэниел Циглер. Сондерс сказал, что ему не понравился подход разработчиков: «Сначала выпустим продукт, потом будем исправлять проблемы с ним». Остальные подписывали обращение анонимно, потому что боялись преследования со стороны компании — она обязывает уходящих сотрудников навсегда отказаться от критики бывшего работодателя. В противном случае они могут потерять все свои акции и понести финансовую ответственность. Ранее Альтман говорил, что такая мера рассматривалась как возможная, но на практике её не применяют. Однако, скорее всего, он лжёт: Кокотайло сообщил, что сейчас рискует потерять $1,7 млн в акциях OpenAI из-за того, что выступил с критикой компании. Интересно, что письмо также подписали 2 сотрудника Google, один бывший и один нынешний. Авторы инициативы считают, что в будущем к ним присоединятся сотрудники и других компаний, занимающихся разработкой ИИ. Они заручились поддержкой известного юриста и активиста Лоуренса Лессига, профессора права из Гарварда. Он известен своей борьбой за авторские права в эпоху интернета.
В письме активисты требуют, чтобы разработчики ИИ отказались от соглашений о неразглашении в вопросах, касающихся рисков и угроз от определенных моделей; они также просят правительство и другие социальные институты защищать информаторов от мести работодателей при разглашении информации, касающейся безопасности. Они призывают компании поддерживать культуру открытой критики и разрешать сотрудникам высказываться о рисках их технологий. Кроме того, подписавшиеся просят наладить анонимный процесс жалоб на потенциальные риски продуктов не только в совет директоров, но и в другие регулирующие органы и общественные организации. У многих разработчиков ИИ есть свои анонимные линии доверия, однако авторы инициативы считают, что внутреннего регулирования недостаточно: у компаний слишком велик соблазн замалчивать любые проблемы ради повышения прибыли.
Искусственный интеллект (ИИ) уже вышел за рамки академических лабораторий и стал неотъемлемой частью нашей повседневной жизни. От систем рекомендаций в интернет-магазинах до ассистентов и автономных транспортных средств — ИИ непрерывно трансформирует множество аспектов нашего общества. Однако, вместе с возможностями, которые он предоставляет, возникает и беспокойство относительно его потенциальных угроз. Широко обсуждаемые сценарии, в которых машины могут обрести сознание или начать действовать вопреки интересам человечества, стали темой, как вечерних телевизионных ток-шоу, так и серьёзных академических исследований. Захватывающие сюжетные линии научно-фантастических произведений превращаются в массовом сознании в очередную фобию. Бояться уже пора, но не ИИ, а человека. ИИ может нести экзистенциальный риск человечеству лишь в случае, если разработчики преднамеренно заложат в него подобные цели. Экономические и социальные риски существуют, но их оценка сильно искажена политическими манипуляциями различного толка. Что же касательно персональных рисков, то ИИ их не увеличивает.
А пока всё идёт своим путём. Вот исследователи из Института инженеров электротехники и электроники (IEEE) решили провести тест Тьюринга для моделей ИИ, чтобы определить, могут ли люди отличить человека от искусственного интеллекта в разговоре. В их эксперименте 500 участников общались с четырьмя собеседниками: одним человеком и тремя ИИ-моделями — ELIZA 1960-х годов, GPT-3.5 и GPT-4. В результате 54% участников приняли GPT-4 за человека. Для сравнения, программу ELIZA, в основе которой нет большой языковой модели или нейросети, посчитали человеком только 22% участников. Тест Тьюринга, впервые предложенный в 1950 году ученым Аланом Тьюрингом оценивает, насколько способность машины проявлять интеллект неотличима от человеческой. Чтобы пройти тест Тьюринга, система должна уметь разговаривать с человеком и заставить его поверить, что он общается с себе подобным. Участники посчитали GPT-4 человеком в 54% случаев. ELIZA, система, заранее запрограммированная на ответы, но не имеющая большой языковой модели или архитектуры нейронной сети, была признана человеком только в 22% случаев. GPT-3.5 набрал 50%, а человек-участник — 67%.
«Машины, как и люди, могут придумывать правдоподобные обоснования постфактум. Они могут подвергаться когнитивным искажениям, ими можно манипулировать, и они становятся все более обманчивыми. Все эти факторы приводят к тому, что в системах ИИ проявляются человеческие слабости и причуды. Это делает их более похожими на людей, чем предыдущие разработки, которые располагали лишь набором заранее заготовленных ответов», — говорит исследователь искусственного интеллекта в IEEE Нелл Уотсон. «Ранние системы ИИ, такие как ELIZA, полагались на заранее запрограммированные ответы, что значительно ограничивало их возможности. Программа могла кого-то обмануть на короткое время, но ограничения быстро становились очевидны. Языковые модели эпохи GPT совершенно другие. Они адаптируются и реагируют на широкий круг тем, говорят на определенных языках или диалектах и даже изображают разных личностей с разными ценностями. Это огромный шаг вперед по сравнению с тем, что было тщательно запрограммировано человеком вручную, независимо от того, насколько умной или сложной была эта программа», — замечает Уотсон.
На конференции WWDC 2024 технологическая компания Apple представила новую систему генеративного искусственного интеллекта Apple Intelligence. Ее планируют встроить в различные продукты компании: iPhone, iPad, Mac и даже очки Apple Vision Pro. Как утверждают разработчики, Apple Intelligence сможет генерировать текст, изображения и выполнять различные действия в приложениях на устройствах Apple, а также ежедневно помогать пользователю в решении задач, основываясь на анализе его личной информации, не нарушая конфиденциальность. Узнав о новом ИИ, Илон Маск пригрозил главному исполнительному директору Apple Тиму Куку, что запретит все «яблочные» устройства в своих компаниях, назвав Apple Intelligence «жуткой шпионской программой»
Журналисты CNBC узнали об электронных письмах, направленных сотрудниками Илона Маска в Nvidia в декабре 2023 года. Они указывают на то, что Маск поручил производителю микросхем отдать приоритет на поставку 12 тысяч графических процессоров Nvidia H100, ранее зарезервированных для Tesla, на нужды стартапа xAI, который занимается разработкой искусственного интеллекта (ИИ). Чипы H100 стали краеугольным камнем амбиций многих компаний, занимающихся искусственным интеллектом, что сделало их чрезвычайно дорогими. Графические процессоры будут использоваться в новой машине, которая называется «гига-компьютером» (по аналогии с гига-фабриками Tesla, где производят электромобили), которая станет самым мощным суперкомпьютером в мире. Запуск «гига-компьютера» намечен на июнь. Суперкомпьютер нужен Маску для создания сильного искусственного интеллекта (AGI), который, несмотря на недостаток базовых знаний, может выполнять задачи, применяя когнитивные способности, подобные человеческим.
Китайский стартап в области искусственного интеллекта Deep Seek выпустил языковую модель с открытым исходным кодом Deep Seek Coder V2. Инструмент превосходно справляется как с программированием, так и с математическими задачами. Он поддерживает более 300 языков программирования и превосходит по производительности современные модели с закрытым исходным кодом, включая GPT-4 Turbo, Claude 3 Opus и Gemini 1.5 Pro. По словам разработчиков, открытая модель впервые достигла такого результата, опередив Llama 3–70B и другие модели в этой категории. Deep Seek Coder V2 также обеспечивает сопоставимую производительность в общих рассуждениях и языковых возможностях. Основанная в прошлом году Deep Seek стала заметным китайским игроком в гонке ИИ, присоединившись к таким компаниям, как Qwen, 01.AI и Baidu. В декабре 2023 года она выпустила Deep Seek Chat — конкурента ChatGPT, обученного на 2 трлн английских и китайских токенов. В течение года после запуска компания открыла исходный код ряда моделей, включая семейство Deep Seek Coder. В новой версии V2 поддерживается до 338 языков программирования, а контекстное окно увеличено до 128 000 токенов. Это позволяет ей справляться с более сложными и масштабными задачами программирования.
Deep Seek объясняет достигнутый технический прогресс и улучшение производительности использованием языковой модели Deep Seek V2, основанной на их собственной архитектуре Mixture of Experts. По сути, компания предварительно обучила базовую модель V2 на дополнительном наборе данных объемом 6 трлн токенов, который в основном состоит из информации, связанной с кодом и математикой, полученной из GitHub и Common Crawl. Модель поставляется с опциями параметров 16 млрд и 236 млрд. Но архитектура Mixture of Experts позволяет ей активировать только «экспертные» параметры (2,4 млрд и 21 млрд) для решения поставленных задач, а также оптимизировать ее для различных потребностей вычислений и приложений. Deep Seek Coder V2 предлагается под лицензией MIT, которая допускает как исследовательское, так и коммерческое использование. Пользователи могут загрузить обе версии модели (16 млрд и 236 млрд параметров) через платформу Hugging Face. В качестве альтернативы компания предоставляет доступ к моделям через API за оплату по мере использования. Те, кто хочет сначала опробовать возможности моделей, могут пообщаться с Deep Seek Coder V2 через чат-бот.
Чат-бот с искусственным интеллектом под названием VIC, или «Виртуально интегрированный гражданин», пытается попасть в избирательные бюллетени, чтобы побороться за пост мэра столицы Вайоминга — города Шайенн. VIC, разработанный на базе нейросети GPT-4 от OpenAI и прошедший обучение на тысячах документов совета Шайенна, создал местный житель и сотрудник библиотеки Виктор Миллер. Если VIC победит, Миллер станет, по его словам, «марионеткой из мяса» для ИИ. Он планирует передавать все документы VIC, который будет их изучать и принимать обоснованные решения.
Местные власти сейчас изучают вопрос, может ли имя такого кандидата действительно появиться в бюллетене для голосования.
Японский технологический гигант SoftBank Corp представил программу для снижения стресса операторов при обслуживании клиентов в колл-центрах. Технология изменения голоса на основе искусственного интеллекта (ИИ) превращает голоса даже самых разгневанных абонентов в более спокойную речь. Система «отмены эмоций» работает в два этапа. Во-первых, она обрабатывает голоса с помощью ИИ для идентификации разгневанных клиентов и анализа характеристик их речи. На втором этапе система обрабатывает звуковую дорожку для создания более спокойного и естественного тона. Для этого ИИ был обучен на более чем 10 000 образцах речи. При этом 10 актеров записали более 100 общих фраз, выражающих различные эмоции, включая гнев и разочарование. Хотя технология не меняет слова звонящего, она существенно меняет интонацию, делая ее менее агрессивной. При этом, как отмечают разработчики, система не устранит полностью все следы гнева, чтобы операторы понимали обеспокоенность клиента и могли помочь. Система «отмены эмоций» пока работает только на японском языке. Но компания изучает возможность распространения этой технологии на другие языки для выхода на международный рынок.
США значительно отстают от Китая в развитии ИИ, что ставит под угрозу возможность выиграть потенциальный конфликт с Народно-освободительной армией Китая (НОАК), предупреждает новый доклад аналитической фирмы Govini. Согласно ежегодному Национальному отчету о безопасности, Китай опережает США уже в 13 из 15 критических технологических областей, включая ИИ. Генеральный директор Govini Тара Мерфи Догерти отмечает, что Министерство обороны США продолжает рассматривать ИИ как исключительно научный проект, тогда как Китай уже внедряет эти технологии на практике. Догерти подчеркивает, что задержки в развитии ИИ делают победу в войне с Китаем недостижимой для Штатов. В случае конфликта Китай может использовать свои преимущества в ИИ для атак на энергетическую инфраструктуру США, что существенно ослабит американские вооруженные силы. В докладе также говорится, что в 2023 году 65% финансирования в области ИИ, машинного обучения и обработки естественного языка в США по-прежнему направлялись на исследования и разработки, а не на внедрение этих технологий в действующие военные системы. «Пришло время перестать рассматривать ИИ как просто научный проект,» — заявила Догерти на брифинге.
Кроме того, доклад Govini выявил значительные риски, связанные с дефицитом запчастей для 7 крупных программ Министерства обороны США, включая вертолеты Black Hawk, подлодки класса Virginia и истребители F-35. Причины этого — зависимость от одного поставщика и долгие сроки поставки комплектующих. Проблема усугубляется доминированием Китая в глобальной цепочке поставок. В последние годы Китай значительно увеличил количество патентов в области критических технологий благодаря своему 14-му пятилетнему плану. По словам Догерти, патенты являются ведущим индикатором технологического доминирования. Для решения проблемы Пентагон должен проводить детальный анализ патентов и расширять круг поставщиков за счет дружественных стран. Догерти отмечает, что исключить Китай из цепочки поставок полностью невозможно, но управление присутствием различных иностранных поставщиков поможет снизить риски и обеспечить необходимую гибкость и защиту.
Специалисты подразделения Skunk Works американской военно-промышленной корпорации Lockheed Martin совместно с исследователями из Университетом Айовы (США) разработали систему искусственного интеллекта и протестировали ее для перехвата самолетов. ИИ поручили управление учебно-тренировочным самолетом «Аэро Л-29» «Дельфин». Система не только самостоятельно управляла им, контролируя курс, скорость и высоту, но и во время каждого полета реагировала на различные испытания и вызовы, которым ее подвергали. С целью проверки ИИ предлагали различные сценарии, такие как стандартный бой или перехват самолета противника. По словам исследователей, они заметили, что ИИ действовал «целенаправленно и решительно». В целом он превзошел ожидания. В Lockheed Martin пояснили, что следующие тесты будут основываться на этих достижениях за счет включения большего количества самолетов в сценарии борьбы в воздухе и ведения боя, тем самым повышая сложность испытаний для ИИ.
Исследователи из некоммерческой организации по исследованию искусственного интеллекта LAION показали, что даже самые сложные большие языковые модели (LLM) можно поставить в тупик простым вопросом. «У Алисы есть [X] братьев, а также [Y] сестры. Сколько сестер у брата Алисы?». Ответить не столь сложно. Например, у Алисы три брата и две сестры, значит, у каждого из братьев две сестры плюс сама Алиса. Таким образом, у каждого брата по три сестры. Специалисты тестировали модели компании OpenAI: GPT-3, GPT-4 и GPT-4o; Anthropic Claude 3 Opus, Gemini от Google и модели Llama компании Meta*, а также Mextral от Mistral AI, Dbrx от Mosaic и Command R+ от Coher. Когда ИИ задали вопрос, то оказалось, что он явно не оправдывает ожиданий. Только одна модель, новая GPT-4o, добилась успеха в логическом тесте. Остальные не могли понять, что Алиса тоже сестра каждого из братьев в ее семье.
Инженеры Мэрилендского университета (UMD) разработали модель, сочетающую машинное обучение и групповую робототехнику, для преодоления трудностей при разработке материалов, используемых в «зеленых» технологиях. Разработанный под руководством По-Йен Чена, доцента кафедры химической и биомолекулярной инженерии UMD, ускоренный метод создания аэрогелевых материалов, используемых в носимых нагревательных устройствах, может автоматизировать процессы проектирования новых материалов. Аэрогели, похожие на гели на водной основе, но изготовленные с использованием воздуха, представляют собой легкие и пористые материалы, используемые в теплоизоляции и носимых технологиях благодаря своей механической прочности и гибкости. Но, несмотря на кажущуюся простоту, линия сборки аэрогелей сложна; исследователи полагаются на трудоемкие эксперименты и опытные подходы, чтобы изучить обширное пространство дизайна и разработать материалы.
Чтобы преодолеть эти трудности, исследовательская группа объединила робототехнику, алгоритмы машинного обучения и знания в области материаловедения, что позволило ускорить процесс создания аэрогелей с программируемыми механическими и электрическими свойствами. Новая модель прогнозирования позволяет создавать устойчивые продукты с точностью 95%.
Компания Nvidia планирует ежегодно выпускать новые платформы для дата-центров, предназначенные для работы искусственного интеллекта. В воскресенье она представила новые продукты и планы по развитию ИИ на технологической конференции COMPUTEX в Тайбэе. Дженсен Хуанг, генеральный директор компании, рассказал о том, как трансформируется отрасль и объявил амбициозную цель — ежегодно внедрять новые «ускорители искусственного интеллекта». Началась очередная промышленная революция. Компании и страны сотрудничают с Nvidia, чтобы перевести традиционные центры обработки данных стоимостью триллионы долларов на ускоренные вычисления и построить новый тип центров обработки данных — фабрики искусственного интеллекта — для производства нового товара: искусственного интеллекта, – Дженсен Хуанг, генеральный директор Nvidia.
Графический процессор Rubin, выпуск которого запланирован на 2026 год, является частью новой стратегии Nvidia для развития центров обработки данных. Интересно, что платформу следующего поколения компания анонсировала всего через несколько месяцев после презентации чипа Blackwell. Чип Rubin назвали в честь астронома Веры Рубин. По словам представителей Nvidia, новый графический процессор изменит сферу ИИ также, как исследования Рубин перевернули представления о космосе. Напомним, она изучала вращение галактик и первой нашла доказательства существования темной материи. Платформа Rubin будет использовать память с высокой пропускной способностью (HBM4), чтобы обеспечить беспрецедентную производительность. Кроме того, платформа для вычислений будет включать в себя новые графические процессоры (GPU), усовершенствованный процессор Vera на базе Arm и передовые сетевые технологии, такие как NVLink 6, CX9 SuperNIC и конвергентный коммутатор InfiniBand/Ethernet X1600. Генеральный директор Nvidia отметил, что внедрение Blackwell уже меняет промышленность, позволяя активнее использовать технологии ИИ на производстве. А в будущем «почти каждое взаимодействие с интернетом или компьютером, скорее всего, будет сопровождаться генеративным ИИ, работающим где-то в облаке».
Команда исследователей из Университета Цинхуа в Пекине разработала первую в мире «ИИ-больницу», в которой всеми врачами, медсестрами и пациентами управляют интеллектуальные агенты на базе большой языковой модели. Цель проекта — улучшить медицинскую помощь путем обучения агентов-врачей в моделируемой среде. Команда утверждает, что это позволит им развиваться независимо и прокачает их способности. ИИ-врачи могут поставить диагноз и назначить лечение 10 000 пациентам всего за несколько дней — задача, на решение которой у обычной клиники уйдет не менее двух лет. Одновременно платформа может тренировать настоящих врачей, бесконечно генерируя им виртуальных пациентов с самыми разными диагнозами и симптомами, корректируя их навыки диагностики и лечения. В моделируемой среде Agent Hospital существуют две основные сущности: пациенты и медицинские работники. GPT-3.5 генерирует роли этих объектов, обеспечивая бесконечное расширение. Для работы больницы, которая включает в себя несколько консультационных и смотровых кабинетов, требуется команда медицинских интеллектуальных агентов. Исследователи создали конфигурацию, состоящую из 14 агентов-врачей, которым поручено диагностировать заболевания и составлять подробные планы лечения, и четырех агентов-медсестер, выполняющих сопутствующие задачи.
В результате эта команда агентов может моделировать все процессы медицинских клиник: от консультации и обследования до диагностики, лечения и последующего наблюдения. По данным разработчиков, ИИ-врачи могут вылечить 10 000 пациентов всего за несколько дней — задача, на выполнение которой традиционной клинике с живыми врачами потребуется не менее двух лет. «Больница» с ИИ может моделировать и прогнозировать различные медицинские ситуации, включая возникновение, распространение и сдерживание инфекционных заболеваний на условной прикрепленной территории. В результате усовершенствованные врачи-агенты достигли в Agent Hospital точности 93,06% в наборе данных MedQA (вопросы экзамена на медицинскую лицензию в США), охватывающем основные респираторные заболевания. Даже у очень хороших врачей, которых мало, точность редко достигает 90%.
Руководитель исследовательской группы Лю Ян рассказал, что после шести месяцев интенсивных исследований и разработок ИИ-больница близка к практическому развертыванию — ИИ врачи получат доступ к обслуживанию реальных пациентов. Произойти это должно совсем скоро, во второй половине 2024 года. Несмотря на оптимистичные прогнозы, внедрение и продвижение диагностики и лечения на основе искусственного интеллекта может столкнуться с препятствиями. Исследователи подчеркнули важность строгого соблюдения национальных медицинских правил, тщательной проверки технологической зрелости и изучения эффективных механизмов сотрудничества между ИИ и людьми. Эти меры необходимы для смягчения потенциальных рисков для общественного здравоохранения, создаваемых ИИ-технологиями.
В интервью изданию Noema бывший гендиректор Google поделился своими прогнозами о направлении развития генеративного ИИ, назвал три основных фактора, которые ведут к появлению сверхмощных ИИ, рассказал, к чему может привести гонка вооружений в этой области между Западом и Востоком, а также оценил, насколько Китай отстает от США в создании передовых моделей ИИ. Как оказалось, не сильно. По мнению Шмидта, главное, что нужно понять о состоянии дел в области генеративного ИИ — рост производительности этой технологии происходит семимильными шагами. Новые поколения моделей будут появляться приблизительно раз в полтора года. Такими темпами, уже через 3–4 года мир существенно изменится. Шмидт назвал три движущих силы этого процесса. Во-первых, так называемое «окно контекста», проще говоря, запрос для ИИ. Оно уже может состоять из миллиона слов; уже изобретено бесконечно большое контекстное окно. Это значит, что ИИ может давать пользователю пошаговые инструкции о том, как варить наркотики или искать лекарство от рака. «Через пять лет мы сможем создавать рецепты из 1000 шагов для решения важных проблем медицины, материаловедения или климатического изменения», — сказал он.
Вторая движущая сила — «улучшенная агентность». Агентом называют большую языковую модель, которая может изучить что-то новое. Например, прочитать всю литературу по химии, предложить пару гипотез, провести несколько тестов и сделать определенные выводы. Их количество возрастет до миллионов, они станут крайне производительными. Третья — и самая важная, по Шмидту — развитие функции «текст в действие». Пользователь может сказать ИИ: «Напиши мне программный код для Х», и код будет написан. Все вместе это открывает перспективы, которые Шмидт называет научно-фантастическими.
«В какой-то момент эти системы станут настолько мощными, что агенты начнут сотрудничать. Твой агент, мой агент, ее агент и его агент объединят силы для решения новой задачи, — предрек Шмидт. — Некоторые полагают, что эти агенты разовьют собственный язык для общения между собой. И с этого момента мы перестанем понимать, что они делают. Что нам тогда делать? Вытащить вилку? Буквально отключить питание компьютеров? Когда агенты начнут общаться и делать то, что люди не понимают, это станет реальной проблемой» Произойдет это, по его подсчетам, примерно через 5–10 лет.
Далее, Шмидт выразил озабоченность тем, что открытые исследования и исходные коды генеративных ИИ, которые публикую западные компании, могут попасть в руки «злых парней» из Китая, России, Ирана, Северной Кореи и Белоруссии. Поэтому так важно, чтобы наиболее мощные системы ИИ, особенно те, которые приближаются к уровню универсального ИИ, имели какие-то встроенные механизмы ограничения распространения. Однако на сегодня их не существует. Не исключает Шмидт и возможности террористических актов с применением ИИ, не только кибератак, но и использования биологического оружия. Поэтому предлагает подумать над каким-нибудь мирным договором между ведущими державами, чем-то вроде Договора об открытом небе, подписанном странами ОБСЕ в 1992 году, который позволял контролировать военную деятельность соседей.
Тем не менее, это вряд ли остановит гонку ИИ. Рано или поздно, в США и Китае появится небольшое количество крайне мощных компьютеров, способных самостоятельно создать нечто такое, что государства не захотят показывать собственным гражданам и/или конкурентам. Такие машины будут расположены на военных базах, подключенные к атомным станциям и окруженные колючей проволокой и пулеметами. По оценкам Шмидта, в области ИИ Китай отстает от США на два года.
Сегодня становится ясно, что ИИ пришёл надолго в жизнь человечества.
Иллюстрация: hsbi.hse.ru