Как с fio проверить диски на достаточную производительность для etcd
Прим. перев.: эта статья — итоги мини-исследования, проведенного инженерами IBM Cloud в поисках решения реальной проблемы, связанной с эксплуатацией базы данных etcd. Для нас была актуальна схожая задача, однако ход размышлений и действий авторов может быть интересен и в более широком контексте.
Краткое резюме всей статьи: fio и etcd
Если вы обдумываете возможность организации кластера etcd на машинах под управлением Linux и хотите проверить, достаточно ли быстры накопители (например, SSD), рекомендуем воспользоваться популярным тестером I/O под названием fio. Достаточно запустить следующую команду (директория test-data должна быть расположена в примонтированном разделе тестируемого накопителя):
Осталось лишь посмотреть на вывод и проверить, укладывается ли 99-й процентиль fdatasync в 10 мс. Если это так, значит ваш накопитель работает достаточно быстро. Вот пример вывода:
Подробно о fio и etcd
Несколько слов о WAL’ах etcd
Как правило, базы данных используют упреждающую журнализацию (write-ahead logging, WAL). etcd это тоже касается. Обсуждение WAL выходит за рамки этой статьи, однако для наших целей нужно знать следующее: каждый член кластера etcd хранит WAL в постоянном хранилище. etcd записывает некоторые операции с key-value-хранилищем (например, обновления) в WAL, прежде чем выполнить их. Если узел упадет и перезапустится в промежутке между snapshot’ами, etcd сможет восстановить транзакции, проведенные с момента предыдущего snapshot’а, ориентируясь на содержимое WAL.
К сожалению, запись в постоянное хранилище занимает некоторое время. Затянувшееся выполнение вызова fdatasync может сказаться на производительности etcd. В документации к хранилищу указывается, что для достаточной производительности необходимо, чтобы 99-й процентиль продолжительности всех вызовов fdatasync при записи в файл WAL была меньше 10 мс. Есть и другие метрики, связанные с хранилищем, но в этой статье пойдет речь именно об этой.
Оцениваем хранилище с помощью fio
Оценить, подходит ли некое хранилище для использования с etcd, можно с помощью утилиты fio — популярного тестера I/O. Учитывайте, что дисковый ввод-вывод может происходить по-разному: sync/async, множество различных классов системных вызовов и т.п. Оборотная сторона медали заключается в том, что fio чрезвычайно сложна в использовании. У утилиты множество параметров, и различные комбинации их значений приводят к совершенно разным результатам. Чтобы получить вменяемую оценку в случае etcd, вы должны убедиться, что нагрузка на запись, генерируемая fio, максимально походит на нагрузку etcd при записи в WAL-файлы:
Почему мы выбрали fio и откуда узнали, как его настраивать
Кроме того, мы рассматривали различные изменения в конфигурации аппаратного и программного обеспечения, поэтому требовался способ их оценки. Конечно, можно было бы запустить etcd в каждой конфигурации и посмотреть на соответствующие метрики Prometheus, но это потребовало бы значительных усилий. Нам же был нужен простой способ, позволяющий оценить конкретную конфигурацию. Мы хотели проверить свое понимание метрик Prometheus, поступающих от etcd.
Для этого требовалось решить две проблемы:
Чтобы сгенерировать с помощью fio рабочую нагрузку, аналогичную нагрузке от etcd, была изучена документация утилиты и подобраны параметры, подходящие нашей задаче. Мы убедились в том, что задействованы нужные системные вызовы, и подтвердили их продолжительность, запустив fio из strace (как это было сделано в случае etcd).
Дело за вами
В статье показано, как с помощью fio можно оценить, является ли достаточно быстрым носитель, предназначенный для использования с etcd. Теперь дело за вами! Исследовать виртуальные машины с хранилищем на базе SSD можно в сервисе IBM Cloud.
P.S. от переводчика
С готовыми примерами использования fio для решения других задач можно ознакомиться в документации или напрямую в репозитории проекта (там их представлено намного больше, чем упоминается в документации).
Переход с Intel Xeon на AMD EPYC: развенчиваем мифы, обходим подводные камни
Один мой друг, биржевой трейдер, любит повторять, что самые большие деньги зарабатываются на смене тренда, и успешный биржевой игрок должен уметь не только увидеть этот перелом (что на самом деле просто), но и принять его для себя, изменив стиль работы под новые реалии (что на самом деле сложно).
AMD-лихорадка в самом разгаре
Даже VMware в своём блоге подтвержает, что 1-сокетные конфигурации стали достаточно мощными для определённых задач.
Вчерашний законодатель IT-моды сегодня вынужден отбиваться от проблем в области безопасности, снижая цены на старшие процессоры и вкладывая сумасшедшие 3 миллиарда долларов в демпинг и маркетинг для противостояния AMD. Акции Intel не растут, рынок захвачен AMD-лихорадкой.
4x HPE 1.92TB SATA 6G Mixed Use LFF (3.5in) LPC 3yr Wty Digitally Signed Firmware SSD (P09724-B21)
2 x HPE 500W Flex Slot Platinum Hot Plug Low Halogen Power Supply Kit (865408-B21)
Сравнение стоимости лицензирования софта для выбранных серверов
1 x AMD EPYC (HPE ProLiant DL325 Gen10 4LFF)
2 x Xeon Platinum (HPE ProLiant DL360 Gen10 4LFF)
Citrix Hypervisor Standard Edition
Citrix XenServer Enterprise Edition
Red Hat Virtualization со стандартной поддержкой
Red Hat Virtualization с расширенной поддержкой
SUSE Linux Enterprise Virtual Machine Driver, Unlimited
VMWare vSphere Standard с базовой поддержкой
VMWare vSphere Standard с расширенной поддержкой
Глядя на слайды презентаций, нужно всё-таки отдавать себе отчёт, что в вашем случае и скорость Intel, и скорость AMD может быть другой, и картина для Epyc (Rome) будет менее радужной на однопоточных приложениях, зависящих от высокой частоты. Однако критерии, предъявляемые к безопасности данных для обеих платформ абсолютно одинаковы. И AMD мало того что не дискредитировала себя в этой области, а наоборот имеет технологии типа SEV для физической изоляции виртуалок и контейнеров в рамках одного хоста, без необходимости перекомпиляции приложений. Мы подробно рассказывали об этой технологии, и рекомендуем вам ознакомиться с нашей статьёй. Но даже несмотря на всё вышесказанное, простите за каламбур, но остаётся ощущение недосказанности. Рядовые сисадмины и крупные IT-директора, когда речь заходит об AMD, задают порой совершенно детские вопросы, а мы на них отвечаем.
Излишне будет говорить, что все современные операционные системы, включая Windows Server, VMware ESX, Red Hat Enterprise Linux и даже FreeBSD поддерживают процессоры AMD EPYC как для запуска приложений, так и для виртуализации. Но у некоторых IT-специалистов возникают вопросы: будут ли работать виртуальные машины, созданные на сервере с Intel Xeon под AMD EPYC? Скажем так: если бы всё было просто и гладко, этой статьи не возникло бы, и даже учитывая, что общение виртуальной машины с процессором и компонентами ввода/вывода осуществляется через прослойку в виде гипервизора, вопросов хватает. На момент написания статьи совместимость с основными операционными системами при установке на голое железо выглядит так:
* У Microsoft, можно прямо сказать, всё как обычно: новейший Windows Server 2019 (релиз после октября 2019 г) поддерживает новые процессоры, как говорится, «из коробки». Первое поколение AMD EPYC вообще поддерживается всеми тремя версиями Windows Server без ограничений, а для установки Windows Server 2016 на 64-ядерные AMD EPYC 77×2 в BIOS нужно вначале отключить SMT, а если вы вздумали установить Windows Server 2012 R2, то в BIOS нужно отключить ещё и X2APIC. С процессорами EPYC, имеющими 48 ядер и меньше, всё гораздо проще: ничего в BIOS отключать не нужно, но если вы вдруг решите накатить Windows Server 2012 на машину с двумя 64-ядерными EPYC-ами, то вспомните, что в 2012 году ещё никто не думал, что в один сервер можно запихнуть 256 логических ядер, и эта операционная система поддерживает только 255 логических ядер, так что одно ядро идёт навыброс.
Операционная система: тип / версия
Запускается и работает
Запускается и работает
Не удалось проинсталлировать ОС
Запускается и работает
Вообще, что значит «запускается» в отношении FreeBSD? Сетевую карту Intel X550, интегрированную в материнскую плату, с ходу увидел и настроил по DHCP только FreeNAS, с сетевыми же шлюзами предстояли танцы с бубном.
Представитель компании Nexenta в письме рекомендовал нам не заниматься ерундой, а запускать их виртуальный продукт Nexenta VSA в виртуалке под ESXi, тем более, что у них есть даже плагин для vCenter, облегчающий мониторинг СХД. Вообще, начиная с 11-й версии FreeBSD прекрасно работает и под ESXi, и под KVM, и под Hyper-V, и прежде чем мы перейдём к виртуализации, позвольте подвести промежуточный итог, который будет важен для наших дальнейших исследований: при установке операционной системы на AMD EPYC 2 (Rome), вам нужно использовать новейшие дистрибутивы ваших операционных систем, скомпилированные после сентября 2019 года.
Вопрос №2: что с совместимостью с VMWare vSphere
Поскольку для AMD EPYC родной средой обитания являются «облака», все cloud-операционные системы поддерживают эти процессоры без нареканий и без ограничений. И здесь недостаточно просто сказать, что оно «запускается и работает». В отличие от Xeon-ов, процессоры EPYC используют чиплетную компоновку. В случае с первым поколением (серия 7001) на общем корпусе CPU имеются четыре отдельных чипа со своими ядрами и контроллером памяти и может произойти такая ситуация, когда виртуалка использует вычислительные ядра, принадлежащие одному NUMA-домену, а данные лежат в планках памяти, подключённых к NUMA-домену другого чипа, что вызывает лишнюю нагрузку на шину внутри CPU. Поэтому производителям ПО приходится оптимизировать свой код под особенности архитектуры. В, частности, в VMWare научились избегать таких перекосов в распределении ресурсов для виртуальных машин, и если вас интересуют подробности, рекомендую почитать эту статью. К счастью, в EPYC 2 на ядре Rome этих тонкостей компоновки ввиду особенностей компоновки нет, и каждый физический процессор можно инициализировать как единый NUMA-домен.
Давайте сделаем небольшое лирическое отступление и настроим наш мини-ЦОД для нужд машинного обучения с видеокартами Nvidia P106-090, не имеющими видеовыходов и созданными специально для GPU-вычислений. И пусть злые языки скажут, что это «майнинговый огрызок», для меня это «мини-тесла», прекрасно справляющаяся с небольшими моделями в Tensorflow. Собирая небольшую рабочую станцию для машинного обучения, установив в неё десктопные видеокарты, вы можете заметить, что виртуалка с одной видеокартой запускается прекрасно, но чтобы вся эта конструкция заработала с двумя и более GPU, не предназначенными для работы в ЦОД, надо изменить метод инициализации PCI-E устройства в конфигурационном файле VMware ESXi. Включаем доступ к хосту по SSH, подключаемся под аккаунтом root
и в открывшемся файле в конце находим
и прописываем (вместо ffff будут ваши ID устройства)
После чего перегружаем хост, добавляем видюхи в гостевую операционную систему и включаем её. Устанавливаем/запускаем Jupyter для удалённого доступа «а-ля Google Colab», и убеждаемся, что обучение новой модели запущено на двух GPU.
Вопрос №3: что с виртуалками, созданными на Intel?
Выключаю виртуальную машину и перехожу в VCSA для переноса. Я предпочитаю осуществлять клонирование вместо миграции, и копирую Window Server 2016 на хост с процессором EPYC. После прохождения валидации на совместимость, можно добавить немного процессорных ядер виртуалочке и убедиться, что флажки для вложенной виртуализации включены. Процесс проходит за считанные минуты, включаем виртуалку уже на AMD-сервере, ждём пока Windows неторопливо загрузится, и в менеджере Hyper-V включаем гостевую операционную систему. Всё работает (более подробно о том почему же всё работает, написала компания HPE в своём документе, посвящённом переходу с Intel на AMD, доступному по ссылке).
Вопрос №4: что с живой миграцией?
Артём Гениев, архитектор бизнес-решений «VMware» (Россия).
• VMware vSphere содержит функционал, позволяющий маскировать (по сути, делать недоступными для виртуальных машин) расширенные наборы инструкций, приводя к общему знаменателю все серверы, входящие в кластер vSphere, что даёт возможность делать vMotion нагрузок между серверами с процессорами различных поколений. Теоретически, можно замаскировать все инструкции, не входящие в спецификацию AMD64, что позволит переносить виртуальные машины «на живую» между любыми серверами с AMD64 – совместимыми процессорами. Результатом такого сценария является максимально урезанные возможности процессоров, все дополнительные наборы команд (AES-NI, SSE3 и выше, AVX в любой форме, FMA, INVPCID, RDRAND и тд) становятся недоступными для виртуальных машин. Это приведет к очень заметному падению производительности или даже неработоспособности приложений, запущенных в виртуальных машинах, работающих на таких серверах.
• По этой причине VMware vSphere не поддерживает vMotion между серверами с процессорами разных производителей. Хотя технически это может получиться сделать в определенных конфигурациях, официальная поддержка vMotion есть только между серверами одного и того же производителя (при этом допустимы процессоры различных поколений).
Если совсем грубо, то всё дело в том, что драйвер процессора транслирует в виртуальную машину расширенные инструкции CPU, а у Intel и AMD их набор отличается. И работающая виртуальная машина, можно сказать, рассчитывает на эти инструкции, даже если их и не использует, и запустившись, допустим с поддержкой AES-NI (Intel), ты у неё не заменишь эту функцию на AES (AMD). По этой же причине живая миграция с новых процессоров на старые даже между Intel и Intel или AMD и AMD может не поддерживаться.
Артём Гениев, архитектор бизнес-решений «VMware» (Россия).
• Для того, чтобы vMotion работал между серверами с различными поколениями процессоров одного и того же производителя используется функция EVC (Enhanced vMotion Compatibility). EVC включается на уровне кластера серверов. При этом все серверы, входящие в кластер, автоматически настраиваются таким образом, чтобы презентовать на уровень виртуальных машин только те наборы инструкций, которые соответствуют выбранному при включении EVC типу процессора.
Владимир Карагиоз, руководитель группы архитекторов по решениям Red Hat (Россия).
• На платформе виртуализации Red Hat Virtualization (RHV) такая операция технически невозможна, так как наборы расширенных инструкций Intel и AMD различаются, и сервера на Intel и AMD нельзя добавить в один кластер RHV. Это ограничение введено в целях сохранения высокой производительности: виртуальная машина работает быстро именно потому, что использует особенности конкретного процессора, которые не пересекаются между Intel и AMD.
Вопрос №5: почему всем плевать на вопрос №4?
Допустим, у нас есть банк или авиакомпания, которая серьёзно решила снизить OPEX за счёт экономии на лицензиях, уходя с Xeon E5 на EPYC 2. В таких компаниях отказоустойчивость является критичной, и достигается не только за счёт резервирования средствами кластеризации, но и за счёт приложения. Это значит, что в самом простом случае, какая-нибудь там MySQL работает на двух хостах в режиме Master/Slave, а распределённая база данных NoSQL вообще допускает отвал одного из узлов без остановки своей работы. И уж здесь совсем нет проблем остановить резервный сервис, перенести его куда требуется и загрузить заново. И чем крупнее компания, чем важнее для неё отказоустойчивость, тем большую гибкость допускают её IT-ресурсы. То есть, там где к IT мы относимся как к сервису, у нас резервируется сам сервисный софт, не важно где и на какой платформе он работает: в Москве на VMware или в Никарагуа на Windows.
Николай Араловец, cтарший системный инженер облачного провайдера «ИТ-ГРАД» (входит в Группу МТС)
• Мне видится грамотным подход к сайзингу исходя из определения «кубика» для вычислительного узла (compute node) и хранилища данных (storage node). В качестве вычислительных кубиков выбирается аппаратная платформа с определенным числом ядер CPU и заданным объёмом памяти. Исходя из особенностей платформы виртуализации делаются прикидки сколько «стандартных» VM можно запустить на одном «кубике». Из таких «кубиков» набираются кластера/пулы где могут быть размещены VM с определенными требованиями к производительности.
И если захочет Cloud-провайдер сэкономить на лицензиях и вот просто на железе в пересчёте на CPU ядро, то он просто поставит отдельный «кубик» из десятка-другого серверов на AMD EPYC, настроит СХД и введёт в эксплуатацию. Так что даже для облачников не имеет значения, что клиентскую виртуальную машину нельзя перенести наживую с Intel на AMD: у них просто не возникает таких задач, и представитель VMware это подтверждает.
Дополнительный вопрос: у вас есть ложка дёгтя? У нас есть ведро
Начнем “за здравие”. AMD всегда старается поддерживать долгую жизнь процессорных сокетов, ведь в отличие от Intel, они не заставляют выкидывать материнские платы с каждым следующим поколением процессора. И несмотря на то, что в Enterprise-сегменте не принято делать апгрейды процессоров, это дает возможность определенной унификации парка серверов при плановых закупках, разнесенных во времени. И если Dell EMC и Lenovo запустили под EPYC Rome новые сервера без поддержки первого поколения EPYC 7001, и видимо, будут поддерживать и следующего поколение EPYC Milan, то HPE, хоть и с ограничениями, но уже позволяет установку первых двух поколений EPYC в свои сервера DL325 и DL385 10 Gen.
Заключение: Рекомендации IT директорам
AMD интересен при простом сравнении стоимости сервера, его производительность в современного многопоточных приложениях позволяет значительно консолидировать сервера и даже мигрировать на односокетные сервера, снижая общее энергопотребление стоек. Интересна для анализа и ситуация с OPEX при ежегодных отчислениях за лицензии многих приложений.
Маркетинг у AMD неэффективен, и по крайней мере на российском cloud-рынке остаётся совершенно неразыгранной карта повышенной безопасности виртуальных машин с помощью изолирования памяти ВМ, о чём мы писали ранее.То есть, уже сейчас есть возможности получить на EPYC преимущества на уровне цены и функционала как при консолидации ЦОД-а, так и при построении облака с нуля.
После того, как посчитаете цены, безусловно, нужно тестировать “руками”. Для этого не обязательно брать сервер на тест. Вы можете арендовать физическую машину у cloud-провайдера, в частности, Selectel и на голом железе развернуть ваши приложения. При тестировании невычислительных приложений обратите внимание на то, что все ядра в Turboboost у AMD работают на частотах выше 3ГГц. Плюс, если есть железо под руками, попробуйте выставить в BIOS повышенный или пониженный пороги энергопотребления CPU, это полезная для больших ЦОДов функция.
AMD выпустила бракованные APU из Xbox Series X в виде набора 4700S без встроенной графики
AMD опубликовала описание набора для сборки компьютера AMD 4700S Desktop Kit, в основе которого лежит процессор AMD 4700S. Как заметил портал Tom’s Hardware, 4700S очень похож на отбракованный APU для Xbox Series X, у которого отключён графический ускоритель.
В апреле этого года пользователь с ником InstLatX64 опубликовал в своём микроблоге данные о загадочном процессоре AMD 4700S, указанном в составе неизвестного тогда комплекта Desktop Kit. Микросхема походила на систему на кристалле консолей Xbox Series X\S, которую также часто сравнивают с мобильным чипом линейки Ryzen 4000 архитектуры Zen 2.
В том же месяце в китайском интернет-магазине Tmall появился системный блок с платой AMD Cardinal, в характеристиках которого указан процессор AMD 4700S. Вокруг процессора на плате был распаян массив памяти GDDR6. Работу с ним не поддерживает ни один из современных настольных процессоров Intel или AMD.
AMD не заявляла о существовании AMD 4700S и не рекламировала эту продукцию. Официальная информация появилась на сайте компании только 26 июня, когда AMD опубликовала описание набора AMD 4700S Desktop Kit.
AMD 4700S Desktop Kit состоит из системной платы Mini-ITX, восьмиядерного процессора AMD 4700S, контроллера Fusion A77E, системы охлаждения, слота PCIe x16 (Gen2 x4) и портов ввода-вывода. Графический ускоритель чипа отключён.
Компания предоставляет на выбор 8ГБ или 16ГБ памяти GDDR6. В комплекте есть два порта SATA III. Кроме того, присутствуют четыре USB 2.0 Type-A, три USB 3.2 Gen 2 (10 Гбит/с) Type-A и один USB 3.2 Gen 1 (5 Гбит/с) Type-A, три 3,5-мм аудиовыхода и Gigabit Ethernet. Разъёмов M.2 для твердотельных накопителей не предусмотрено.
Процессор AMD 4700S построен на архитектуре Zen 2 с восьмиядерным 16-поточным процессором и отключенным iGPU. Брендирования «Ryzen» на процессоре нет. Также AMD не указала тактовую частоту процессора. Возможно, она будет соответствовать частотам более ранних утечек о AMD Cardinal — базовая 3,6 ГГц и максимальная 4 ГГц.
Из-за того, что у AMD 4700S нет выходов для дисплея, для подключения к монитору необходима совместимая с PCIe x16 (Gen2 x4) дискретная видеокарта. AMD рекомендует как совместимые Radeon 550, RX 550, RX 560, RX 570, RX 580 и RX 590; GeForce GT 710, GT 1030, GTX 1050, GTX 1050 Ti и GTX 1060.
MD 4700S Desktop Kit будет совместим только с драйверами на Windows 10. AMD не гарантирует совместимость с Linux или более ранними версиями Windows.
Российские серверные CPU и производство электроники. Есть ли свет в конце тоннеля?
Фото: Yadro
Как мы рассказали в первой части, с 1 января 2022 года вступит в силу постановление правительства, по которому серверы с отечественными процессорами получат безусловное преимущество над российскими серверами с иностранными процессорами в гостендерах. По сути, это означает передел рынка и постепенное вытеснение тех производителей серверов, которые заняли «неправильную позицию».
Будущие CPU
На данный момент известно о планах разработки и выпуска следующих CPU:
Эльбрус-12С и Эльбрус-16С
В прошлом году на выставке «Микроэлектроника-2020» был показан первый инженерный образец 16-ядерного процессора «Эльбрус-16С», разработка которого ведётся с 2018 года.
На стенде рядом с инженерным образцом стоял блейд-сервер с жидкостным охлаждением на базе процессора «Эльбрус-8СВ»
Разработку процессора планировалось завершить в 2021 году, а начало серийного выпуска можно ожидать в 2022 году.
Некоторые технические характеристики: топология 16 нм, 16 вычислительных ядер общей производительностью 1,5 Тфлопс одинарной точности и 750 Гфлопс двойной точности, базовая частота 2 ГГц, 12 млрд транзисторов, 8 каналов памяти DDR4-3200 ECC, встроенные контроллеры Ethernet 10 и 2,5 Гбит/с, 32 линии PCI-Express 3.0, 4 канала SATA 3.0. Многопроцессорные системы поддерживают объединение до четырёх CPU и до 16 ТБ оперативной памяти.
Это первый российский процессор, спроектированный по топологии 16 нм и с поддержкой памяти DDR4-3200, а также первый «Эльбрус» с базовой частотой 2 ГГц.
Максимальная производительность ядра в теории составляет 96 Гфлопс одинарной точности и 48 Гфлопс двойной. Для всех ядер — 1,5 Тфлопс и 768 Гфлопс.
Технические характеристики процессоров «Эльбрус» прошлого (4С), актуального (8С), нового (8СВ) и будущего (16С) поколений в сравнении с аналогичными процессорами Intel x86, источник
Кроме того, в ближайшее время планируется выпустить модели попроще: двухъядерный «Эльбрус-2С3» и 12-ядерный «Эльбрус-12С», оба по топологической норме 16 нм с DDR4-3200 и прочими преимуществами нового поколения. Двухъядерный процессор с TDP 10 Вт больше похож на мобильный CPU (аппаратное 3D-ускорение, аппаратные кодеры и декодеры видео, вывод 4K), а 12-ядерный можно ставить и на рабочие станции, и на серверы.
Планы по материнским платам с февральской презентации
Эльбрус-32С
В планах МЦСТ — разработка 32-ядерного процессора по технологии 6–7 нм. Первые рабочие образцы ожидают в 2025 году.
Байкал-S
Технические характеристики
Анонс Baikal-S состоялся 26 ноября 2020 года. В производство запущен в мае 2021 года. Недавно на заводе TSMC были изготовлены инженерные образцы (400 шт.), а первую коммерческую партию из 12–14 тыс. экземпляров ожидают в III кв. 2022 года, заказ на неё сформируют в декабре 2021 г.
Отметим, что «Байкал Электроникс» сейчас полностью перешла на ARM, как самую перспективную архитектуру, и все будущие процессоры планирует выпускать только на ней.
«Байкал-S» станет первым российским серверным процессором с поддержкой аппаратной, а не просто контейнерной виртуализации. Из существующих процессоров «Байкал Электроникс» самым производительным является 8-ядерный «Байкал M1000», вот его показатели в сравнении с 8-ядерными процессорами «Эльбрус 8С» и «Эльбрус 8СВ»:
Из результатов следует, что «Эльбрус» 2016 года выпуска с частотой 1300 МГц работает быстрее «Байкала» 2019 года выпуска с частотой 1500 МГц.
Однако 48-ядерный «Байкал-S» с производительностью 358 Гфлопс легко побьёт все эти рекорды и станет самым мощным серверным CPU российского производства. У некоторых экспертов есть мнение, что будущее CPU общего назначения именно за архитектурами вроде RISC/CISC (ARM и x86), а вовсе не VLIW, как у «Эльбруса» (и «Итаниума»).
Процессор «Ядро»
В середине июля госкорпорация «Ростех» и компания Yadro объявили, что к 2025 году выпустят процессоры собственной разработки для серверов Минобрнауки, Минпросвещения и Минздрава (в бизнес-плане обозначены продажи 60 000 процессоров в 2025 году).
8-ядерный процессор с тактовой частотой 2 ГГц создаётся на открытой архитектуре RISC-V по топологии 12 нм. Разработку ведёт дочерняя компания «Ядро микропроцессоры» (вероятно, с участием команды Syntacore).
Некоторые специалисты считают рискованным план серийного производства высокопроизводительных серверных процессоров на архитектуре RISC-V.
Кадровый голод и дефицит комплектующих
К сожалению, в российской электронике острый кадровый голод. Особенно не хватает разработчиков самой аппаратуры — интегральных схем. Такая ситуация сложилась из-за того, что в прежние десятилетия отрасль плохо финансировалась, здесь работало совсем мало компаний. Сейчас наступили другие времена. Денег хватает, рынок быстро растёт, а вот опытных специалистов уже нет, да и откуда им взяться — получается своего рода замкнутый круг.
Для развития предприятий электроники необходимо выпускать минимум 10 000 молодых специалистов в год, а сегодня российские вузы выпускают только 1200–1500 инженеров, за которых идёт настоящая охота. Доходит до того, что с целью возобновления производства на зеленоградском заводе «Ангстрем-Т» приходится завозить десятки тайваньских спецов с семьями. Предполагается, что завод будет выпускать чипы 130–90 нм.
Поэтому далеко не факт, что в ближайший год отрасль сумеет выпустить десятки тысяч серверов с российскими процессорами.
Кроме того, из-за общемирового дефицита у российских производителей уже возникли проблемы с получением процессоров и многих компонентов — источников питания, пассивных элементов, различных контроллеров и т. д. Циклы поставки по большинству компонентов значительно выросли. Запасы на складах заканчиваются, говорят источники на рынке микроэлектроники, так что ближайшее будущее выглядит довольно мрачно.
Российский завод на 5 нм
Сейчас в России на заводах «Микрон» возможно производство микросхем с топологией 65 нм. Вообще, два года назад была принята Национальная стратегия развития электронной промышленности до 2030 года, по которой в России должны появиться фабрики по производству чипов с топологией до 5 нм. Но это скорее напоминает альтернативную реальность. Сейчас в России нет ничего, что требуется для такого производства: ни оборудования (его могут вообще не продать из-за санкций), ни опытных специалистов для наладки современных EUV-степперов. Хотя есть вероятность, что в 2030 году топология 5 нм морально устареет, так что появится возможность купить где-то подержанные степперы или даже всю производственную линию за полцены. Возможно, даже в обход санкций.
Александр Ким из МЦСТ уверен, что Россия найдёт способ закупить оборудование и построить фабрику для производства собственных процессоров, иначе государство «станет ещё уязвимее для кибервоздействий», поскольку «в зарубежных процессорах огромное количество недокументированных функций, уязвимостей на аппаратном уровне».
Президент Kraftway Алексей Кравцов считает, что у России нет выбора — нужно развивать собственное производство электроники и строить современные заводы, и этот вопрос «решается на самом высоком уровне».
Для программы до 2030 г. предусмотрено бюджетное финансирование на 2021–2023 гг. в размере 350 млрд руб, что представители отрасли считают недостаточным.
Посмотрим, насколько успешными окажутся эти планы наладить собственное высокотехнологическое производство процессоров по топологии 5 нм к 2030 году. Сейчас это выглядит просто фантастикой. Возможно, реальность опровергнет пессимистические оценки.
По теме:
Тем временем компания «Байкал Электроникс» выиграла 9,44 млрд руб. от Минпромторга на разработку ещё двух процессоров: Baikal-L (12 нм, архитектура ARMv9, 2023 г) для ноутбуков и Baikal-S2 (6 нм, ARMv9, 2025 г) для серверов.
НЛО прилетело и оставило здесь промокоды для читателей нашего блога: