Ранее мы рассмотрели использование технологий нанофотоники в глубоком обучении и то, как они помогают повысить производительность вычислительных систем на программном и аппаратном уровне.
Обсуждаемая тема обновления закона Мура путем нахождения более сложных зависимостей эволюции компьютерных систем сегодня хорошо изучена исследователями в области технологий плазмоники и нанофотоники.
Важно: большинство ссылок, представленных в статье, ведут на материалы на английском языке.
В России не так много отечественных исследователей фотоники, а те, что есть, предпочитают публиковаться на английском языке.
Для дальнейшего изучения темы на досуге за чашечкой чая предлагается прослушать доклад Дмитрий Федянин — один из ведущих отечественных исследователей в области применения технологий нанофотоники в вычислительных системах.
Дмитрий Федянин — Старший научный сотрудник МФТИ.
А затем мы посмотрим интересную статью, в которой группа авторов предлагает чрезвычайно оригинальную концепцию метрики роста производительности, альтернативу классическому закону Мура.
Идея созрела благодаря анализу естественных физических ограничений существующих технологий работы процессорных ядер, а также перспектив новых систем на основе нанофотоники, которые сейчас подтверждены экспериментально.
Постоянные требования современной промышленной системы к повышению эффективности вычислений и пропускной способности связи привели к тому, что полупроводниковая технология в ее нынешнем состоянии достигла своего предела.
Это привело к появлению новых технологий, способных превзойти традиционные решения.
Речь идет о фотонных препроцессорах или ускорителях, электронно-фотонных гибридных схемах и нейронных сетях.
Однако усилия, предпринятые для описания и прогнозирования эволюции производительности вычислительных систем, не позволяют точно предсказать и тем самым объяснить фактически наблюдаемую скорость развития; то есть все предлагаемые индикаторы со временем отклоняются от траектории своего развития через несколько лет после того, как они были первоначально предложены.
Это несоответствие требует сбалансированной метрики, включающей целостный набор движущих сил эволюции вычислительных систем.
Первоначальная концепция новой метрики под названием Возможность сопротивления величине задержки (CLEAR) был предложен международной группой исследователей (Шуай Сан, Викрам К.
Нараяна, Марио Мискульо, Лайонел К.
Кимерлинг, Тарек Эль-Газави, Фолькер Дж.
Зоргер).
По мнению авторов статьи (см.
Здесь ) эта метрика охватывает динамику изменения скорости синхронизации, энергоэффективности, масштабирования физических размеров компьютеров и экономических затрат. По мнению авторов, CLEAR — единственная на сегодняшний день метрика, правильно описывающая историческое развитие вычислительных систем.
Даже при различных вариантах и взаимных комбинациях технологий CLEAR соответствует наблюдаемому постоянному темпу роста, включая доминирующие технологии вычислительных систем, предлагаемые для будущего внедрения (прогноз).
Цель CLEAR — предоставить читателям руководство по количественному прогнозированию прироста производительности вычислительных систем сейчас и в будущем.
Хотя общая эволюция производительности вычислений постоянно увеличивается, наблюдаемая скорость работы устройств на базе современной полупроводниковой промышленности заметно замедляется, особенно заметно на 14-нм технологии (см.
ниже).
Это связано как с естественными физическими ограничениями, так и с растущими экономическими издержками непрерывного процесса промышленного производства чипов.
По этим причинам закон Мура как дорожная карта для полупроводниковой промышленности несколько раз пересматривался, чтобы устранить эти препятствия (см.
Здесь ).
Аналогично динамика развития (зависимость от времени) и других показателей физических величин, например показателя эффективности использования вычислительных мощностей ( Закон Куми ) или мера вычислительной мощности, полученная из соотношения между потреблением энергии, размером и стоимостью ( Закон Макимото ), в результате все равно отклоняется по сравнению с наблюдаемыми темпами развития технологий (рис.
1) - выбранная в показателе функция времени (например, многоядерность, себестоимость производства) на практике не может обеспечить экспоненциальный рост. Например, производительность процессора, состоящего из N ядер, по-прежнему ограничена соотношением 1/((1-п)+п/Н) , Где п представляет уровень распараллеливания (см.
Здесь ).
Поэтому становится все труднее отслеживать эволюцию производительности вычислительной системы, используя только закон Мура (или другие существующие прогнозные показатели), которые используют только один или несколько движущих факторов для описания производительности вычислительной системы (см.
Рисунок 1).
Здесь ).
Кроме того, преимущества различных аппаратных реализаций (например, электрических, оптических) со временем изменяются по-разному, что еще больше затрудняет эволюционное предсказание.
Например, интегрированная фотоника и, возможно, плазмоника могут расширить определенные каналы связи на плате или даже на чипе.
Результатом станет значительное смягчение проблем рассеивания тепловой мощности, а также увеличение пропускной способности данных с возможностью преодоления барьера электронной цифровой эффективности с помощью таких концептуальных подходов, как мультиплексирование с разделением по длине волны (WDM).
ВДМ ), оптический угловой момент или более высокие форматы модуляции, такие как поляризационная амплитудная модуляция (например, КАМ ), где одновременно используется фазовая и амплитудная поляризация (см.
Что касается компромиссов с другими технологиями, то один электронный транзистор с техпроцессом 14 нм занимает площадь на 3 порядка меньшую, чем кольцевой модулятор фотонного микродиска, но фотоника обеспечивает межканальное соединение без емкостных проводов заряда/разряда, хотя это синергетический по отношению к вышеупомянутым уникальным характеристикам, которые поддерживают скорости передачи данных до уровня Тбит/с (см.
Здесь ).
Рисунок 1. Характер развития вычислительных систем с 1946 года по настоящее время можно представить в виде четырех различных показателей: (А) Закон Мура – основан на увеличении количества компонентов на кристалле, измеряемом в единицах числового числа транзисторов; (б) Закон Куми - отражает энергоэффективность на единицу расчета, бит/(с*Джоуль); (В) Показатель Макимото, включающий в себя «интеллект», мощность, размер и стоимость системы – измеряется в единицах MIPS/(Вт*мм3*$); И (Г) показатель CLEAR, определенный в уравнении (4) и учитывающий задержку системы в дополнение к показателю Макимото, а также экономические затраты, связанные с внедрением новой технологии: MIPS/(s*W*mm3*$).
Данные Photonic CLEAR основаны на прогнозе Intel Silicon Photonics Forecast. Пунктирные линии представляют собой линейную аппроксимацию (в логарифмическом масштабе), основанную на первоначальных темпах роста, при этом производительность удваивается каждый год. По мнению авторов, 5-факторный индикатор CLEAR (название которого представляет собой аббревиатуру Capability-to-Latency-Energy-Amount-Resistance) на данный момент является наиболее надежным для описания эволюции производительности вычислений за весь известный исторический период. начиная с самого начала появления вычислительных технологий в 1940-х годах и до настоящего времени.
Этот показатель охватывает как физические, так и экономические факторы, связанные с темпами развития различных вариантов вычислительной техники.
Таким образом, CLEAR можно использовать как независимый от технологии показатель, поскольку он учитывает как фундаментальные физические, так и экономические зависимости.
На основе наблюдений и анализа авторы делают два ключевых вывода:
- динамика развития вычислительных систем характеризуется постоянным ростом, при этом рассмотренные выше показатели, ставшие уже традиционными, отклоняются от первоначальной скорости отслеживания;
- Интегрированная фотоника (или любая другая новая технология в целом) может заменить ныне доминирующую технологию только в том случае, если ее общая производительность (т.е.
значение CLEAR) находится на (или выше) линии тенденции непрерывного эволюционного роста.
Ээволюция вычислительных систем
Основные движущие силы
Развитие фундаментальной физики, управление полупроводниковыми технологиями и экономические затраты требуют постоянных изменений и адаптации, чтобы способствовать прогрессивному развитию технологий вычислительных систем.С момента основания полупроводниковой промышленности закон Мура несколько раз менял факторы, лежащие в его основе: от подсчета транзисторов отрасль совершает поворот (первый переход) к занимаемой площади и масштабированию транзисторов из-за ограничений размера кристалла и роста общей сложности системы (см.
рисунок).
1).
Здесь ).
Второй переход произошел, когда тактовая частота нашла свои пределы из-за описанных ограничений плотности рассеиваемой мощности.
Закон масштабирования Деннарда (см.
Здесь ).
Поскольку масштабирование транзисторов приближается к фундаментальным физическим пределам, количество транзисторов в настоящее время продолжает увеличиваться из-за параллелизма, реализованного в многоядерных и гетерогенных архитектурах с массовым параллелизмом.
Это усиливает узкое место межсоединений, что приводит к необходимости отключать определенные области чипа ( «темный кремний» ).
Таким образом, темпы роста изменились с первоначального удвоения каждые 12 месяцев до примерно 24 месяцев в настоящее время.
Недавно из совершенно другой области, влияющей на эволюцию вычислительных систем, возникла новая движущая сила — интегрированная фотоника и гибридизированная нанофотоника, где маршрутизация светового сигнала осуществляется пассивными интегрированными фотонными компонентами, а электрооптические активные компоненты усиливаются за счет новые решения:
- реконфигурируемые материалы;
- сильные взаимодействия света и материи, такие как плазмоника или фотоника ЭНЦ (эпсилион-околонулевой), вместе обеспечивая канал передачи данных и пропускную способность, превосходящую традиционную электронику на двух уровнях: чипе и ядрах (см.
Здесь ).
Также важна тенденция других технологий, например тех, которые используются в оптической связи, в которых несколько сигналов разных длин волн упаковываются в один и тот же физический канал и, таким образом, улучшают использование оборудования.
Это важный фактор при оценке производительности системы.
Таким образом, для обеспечения точного сравнения вклада различных технологических решений в развитие вычислительной техники требуется целостный показатель, учитывающий множество факторов.
Единый индикатор эволюции вычислительных систем
Чтобы создать технологически нейтральный показатель, авторы собрали данные о производительности настольных компьютеров, ноутбуков, мобильных устройств, серверов, рабочих станций и суперкомпьютеров с 1940-х годов и сравнили их с традиционными показателями (рис.1).
В частности, закон Мура считает количество транзисторов единственным достаточным фактором (уравнение 1), а закон Куми опирается на два фактора: энергию и количество вычислений, тем самым порождая показатель, измеряемый в битах/(с*Дж).
(Уравнение 2).
Миллионы инструкций в секунду (MIPS) на единицу размера-стоимости-мощности известны как показатель Макимото, определяемый как 4-факторный показатель степени (уравнение 3).
Закон Мура = Количество транзисторов [количество шт.] (1) Закон Куми = Вычислить/Ээнергия [бит/(с*Дж)] (2) Индикатор Макимото = Интеллект/(Размер*Стоимость*Мощность) [MIPS/(мм3*$*Вт)] (3) Значения этих трех индикаторов демонстрируют схожую картину роста: восходящий тренд хорошо отслеживает их базовые данные, но только в течение ограниченного периода времени, и со временем отклоняется от них.
Это говорит о том, что лежащие в их основе факторы не смогли полностью отразить реальную движущую силу, которая доминирует в эволюции вычислительных систем.
Анализ линий тренда на рис.
1 показывает, что количество транзисторов на начальном этапе (1950-1960-е гг.
) близко отражает закон Мура о ежегодном удвоении (пунктирная светло-зеленая линия, рис.
1).
Однако масштабирование энергоэффективности (т. Е.
Закон Куми) стало доминирующим фактором в последующий период (1960–1970-е годы), поскольку простое добавление большего количества транзисторов ограничено размером и сложностью микросхемы.
По этой причине закон Мура начал отклоняться от тенденции 2X/год, в то время как закон Макимото все еще сохранял свои первоначальные темпы роста.
С конца 1970-х годов коэффициенты масштабирования как размера, так и мощности постепенно достигли своего предела из-за проблем, связанных с заметно возросшей сложностью производственных процессов, утечкой энергии и рассеиванием тепла.
С появлением на рынке параллелизма (т. е.
многоядерных процессоров) и экономического масштабирования метрика Макимото со временем также отклоняется (с 1978 года).
Пунктирные линии, показанные на рис.
1, представляют первоначальные прогнозы роста производительности для каждого закона.
Эти линии тренда показывают, как каждый дополнительный фактор, введенный соответствующими законами, влияет на собственную исходную метрику прогноза, отображаемую как отклонение от исходного прогноза.
Рассматривая эту тенденцию как теоретический верхний предел скорости развития технологий, теперь можно понять, является ли «заявленная» тенденция действительно «действительной» или нет. То есть, вызывает ли действующее законодательство замедление темпов развития технологий или же начинают доминировать новые факторы производительности.
Таким образом, на сегодняшний день не существует четкого известного индикатора, который мог бы:
- объяснить недавние изменения в производительности;
- предоставить рекомендации по прогнозированию будущих результатов.
Основное утверждение авторов заключается в том, что факторы, составляющие CLEAR, выбраны не случайно, а являются основополагающими для технологических и экономических тенденций: ПРОЗРАЧНЫЙ = Способность/(Задержка*?Энергия*Количество*Сопротивление) [[MIPS/(с*Вт*мм3*$)]] (4) или в оригинале: CLEAR = (Возможность)/(Задержка*Энергия*Количество*Сопротивление) [[MIPS/(с*Вт*мм3*$)]] Авторы, сформулировав формулу показателя CLEAR, определяют постоянную скорость роста на протяжении всей эволюции вычислительных систем, охватывающую рост производительности на 4 порядка за семь десятилетий.
Более того, фактические наблюдаемые темпы развития постоянно удваиваются каждые 12 месяцев.
Эта 5-факторная метрика определяется на основе концепции производительности и стоимости.
CLEAR может применяться на уровне устройства, схемы и системы.
Например, на системном уровне CLEAR структурирован следующим образом: Способность С — производительность системы определяется произведением миллионов инструкций в секунду (MIPS) и длины инструкции; минимальная задержка л относится к тактовой частоте и ограничивается временным окном между двумя соседними тактовыми циклами; Ээнергия ? представляет собой уровень потребления энергии для работы такой системы для производства указанной мощности, выраженный в ваттах; Количество А представляет пространственный объем (т. е.
физический размер) системы и является функцией размерности процесса; Сопротивление р количественно определяет экономическое сопротивление принятию рынком новых технологий.
В основе своей авторы берут экономическую модель, основанную на кривой опыта Boston Consulting Group (BCG), которая объясняет взаимосвязь между общим объемом производства и себестоимостью единицы продукции (см.
рисунок 1).
Здесь ).
Авторы выводят линейную зависимость между логарифмическим масштабом единицы цены и временем, затем подтверждают эту связь путем сравнения исторических данных (см.
Здесь И Здесь ) с помощью CLEAR. Авторы отмечают, что метрика MIPS заменяется такими метриками, как операции с плавающей запятой (FLOPS), в качестве метрики производительности из-за ее чувствительности к базовому набору команд. CLEAR применяется к различным архитектурам процессоров на протяжении всей истории, для которых другие показатели производительности недоступны в установленных наборах тестов производительности (таких как SPEC или LINPAC).
Однако, чтобы сделать MIPS репрезентативным показателем производительности, авторы взвешивали (то есть умножали) каждую инструкцию на ее длину, тем самым получая относительный общий показатель в единицах бит/с.
Тенденции развития вычислительных систем
Сравнив все четыре индикатора, показанных на рис.1, мы обнаруживаем, что, когда индикатор включает в себя больше значимых факторов, его начальная точка отклонения от исходного тренда возникает позже.
В отличие от CLEAR, который показывает точное совпадение данных во всем.
Таким образом, мы эмпирически обнаруживаем, что производительность вычислений постоянно растет с фиксированной скоростью, примерно удваиваясь каждый год, и не зависит от технологии.
Тестируя новые вычислительные машины, например, основанные на интегрированной фотонике, как предсказывает IBM (см.
Здесь ), мы обнаруживаем, что такие технологии действительно могли бы продолжить эволюционную тенденцию развития с ежегодным удвоением роста (красные звезды на рис.
1).
Кроме того, можно обнаружить, что относительное отклонение от линии тренда 2X/год можно использовать для классификации индикатора вычислительной системы.
Например, дополнительные накладные расходы (т. е.
физический размер, параллелизм, охлаждение, низкий эффект масштаба и производственные затраты) суперкомпьютеров показывают, что они имеют более низкие значения CLEAR по сравнению со всеми другими типами компьютеров, такими как ноутбуки и мобильные устройства, несмотря на их более высокая продуктивность (пунктирные кружки, рис.
1в, г).
Высокий параллелизм многоядерных технологий, используемых в суперкомпьютерах, был поставлен под сомнение из-за возврата вычислений к энергии, описанного в законе Амдала (см.
Закон Амдала).
Здесь ).
Несмотря на то, что суперкомпьютеры обеспечивают производительность в петафлопс, вся инфраструктура напоминает вычислительную инфраструктуру пяти-тридцатилетней давности, что вызывает сомнения в будущем масштабирования.
ЧИСТЫЙ анализ
Чтобы получить более детальное представление об относительном влиянии каждого из 5 факторов CLEAR, авторы разбили показатель на отдельные факторы, сопоставив один с другим, чтобы выявить реальные движущие силы с течением времени.На рис.
2 используются комбинации факторов: C против LEAR, CLE против AR и CLEA против R (рис.
2: C = емкость, L = задержка, E = энергия, A = количество, R = сопротивление).
Кроме того, показана скорость устранения C' по отношению ко всем другим факторам, поскольку единственным фактором масштабирования в первые годы полупроводниковой промышленности было количество компонентов на кристалле.
Важно отметить, что относительные положения каждой точки данных более важны, чем точные значения по осям X и Y, и, таким образом, обе оси нормализуются к одной, что позволяет сравнивать каждый случай.
Поскольку области, заштрихованные синим и красным, представляют собой области линейного роста и насыщения соответственно, последовательные сдвиги точки поворота вправо легко обнаруживаются по мере увеличения количества факторов, учитываемых по оси X (т. е.
относительного времени).
Чтобы понять это, факторы на оси X можно рассматривать как движущую силу показателя, а значения на оси Y обозначают фактические условия отслеживания рассматриваемых движущих сил.
Таким образом, линейная область означает, что факторы на оси X по-прежнему доминируют в развитии технологии, в то время как движущая сила технологии начинает смещаться к другим факторам при входе в область насыщения.
Этот результат совпадает с сделанным наблюдением о том, что эволюция вычислительной системы всегда растет с этой постоянной скоростью, а отклонение от показателя происходит только при появлении других движущих сил.
Рисунок 2. ЧЕТКИЙ анализ движущей силы.
Оценка CLEAR разбита на четыре группы, каждая из которых состоит из двух частей: фактор, демонстрирующий факторы на пути развития технологии (ось X), и показательный фактор, показывающий способность отслеживания выбранного фактора или комбинации.
факторов (ось Y).
Результаты показывают, что позднее отклонение от нормализованного развития происходит, когда при описании производительности вычислительных систем принимается во внимание больше факторов.
(А) Эксклюзивная скорость C' по сравнению с задержкой-Ээнергией-количеством-стоимостью (LEAR); (б) Способность C против Задержки-?Энергии-Количества-Стоимости (LEAR); (В) Емкость для задержки-энергии (CLE) и количества-затрат (AR); (Г) Задержка-количество энергии (CLEA) в зависимости от стоимости.
Оси R. X и Y нормализованы к единице для лучшего сравнения.
Области линейного роста и насыщения покрыты синими и красными тенями соответственно.
Применение CLEAR
Важно отметить, что способность беспрепятственно отслеживать эволюцию различных технологий позволяет CLEAR прогнозировать будущую технологическую замену и определять стандарт для будущих технологий, включая их гибридизацию, например, между электроникой и фотоникой (см.Здесь , здесь , Прямо здесь И Здесь ).
Смена технологий
Встроенные фотонные межсоединения недавно продемонстрировали высокую пропускную способность передачи данных (превосходящую традиционные электрические межсоединения) при гибридизации с активными плазмонными устройствами (см.Здесь ).
Хотя оптическая маршрутизация данных превозносится как возможное решение для устранения узких мест в связи между вычислительными ядрами и широко используется в центрах обработки данных и суперкомпьютерах, интегрированная фотоника еще не внедрена в основной потребительский сектор.
На первый взгляд это кажется удивительным, поскольку предыдущие исследования показали превосходные результаты фотонно-плазмонной гибридизации.
Возникает вопрос: почему интегрированная фотоника не используется в продуктах массового рынка? Чтобы ответить на этот вопрос, сравним CLEAR для электронных связей с гибридными фотонно-плазмонными связями в зависимости от времени эволюции и расстояния распространения сигнала (рис.
3).
Здесь манипулирование светом осуществляется с помощью плазмонных «активных» строительных блоков (источник, модулятор, детектор, переключатель) (см.
Здесь И Здесь ), а распространение света обрабатывается фотоникой с низкими потерями на основе платформ из кремния или нитрида кремния.
Электронику сравнивают с этим вариантом плазмонно-фотонного гибрида, потому что разделение активных и пассивных функций в гибридной плазмонной фотонике приводит к более высокой производительности (т. Е.
Более низкой задержке, более высокой пропускной способности, более низкой энергетической функции на бит).
Полученные поверхностные кривые показывают, что CLEAR-электроника и плазмонная фотоника имеют линию безубыточности (пересечение поверхностей, рис.
3), которая масштабируется как со временем, так и с расстоянием распространения сигнала.
Интересно, что даже сегодня электроника по-прежнему опережает фотонику при размере чипа = 1 см по длине передачи информации.
Таким образом, электроника по-прежнему используется в коммерческих целях на чипах, в отличие от фотоники.
Таким образом, инвестиции и разработки в области электроники за последние полвека создали технологическое сопротивление (барьер входа) для других технологий.
Такое масштабирование привело к тому, что стоимость транзистора составляет всего одну миллиардную стоимость фотонного устройства или даже меньше (см.
рисунок 1).
Здесь ).
Рисунок 3. Сравнение характеристик CLEAR электрических (синих) и гибридных фотонно-плазмонных (красных) внутрикристальных межсоединений в зависимости от длины соединения и времени разработки технологии.
Размер фишки = 1 см, красным цветом указана длина ссылки и год написания (2019).
Были развернуты следующие модели; А) модель пропускной способности, основанная на количестве транзисторов и оптических устройств на кристалле, которую можно рассматривать как исходную модель закона Мура; б) модель энергоэффективности, основанная на законе Куми, которая ограничена пределом Ландауэра kB*T*ln(2) ≈ 2,75 зДж/бит, (kB - постоянная Больцмана; T - температура); В) модель экономической устойчивости, основанная на моделях технологического развития до 2019 года, согласно которой стоимость электронного канала составляет менее одной миллиардной или одной миллионной стоимости гибридного канала; Г) модель параллелизма (после 2006 г.
), описывающая многоядерную архитектуру и ограничения «темного кремния» в электрических соединениях.
Желтая точка расположена на пересечении двух технологий в 2019 году, когда технология гибридной плазмонной фотоники только достигла размера чипа и начинает показывать лучшую производительность CLEAR на кристалле.
По мере совершенствования технологий и производственных процессов расстояние безубыточности «производительность/затраты» (т. е.
CLEAR) для передачи небольших объемов информации сокращается из-за более плоской кривой затрат на электронику по сравнению с фотоникой, причем последняя подчиняется степенному закону с течением времени.
.
Более того, затраты начинают расти по мере увеличения плотности электрических соединений, что приводит к дополнительным накладным расходам из-за фундаментальных физических проблем в транзисторных узлах размером менее 10 нм (см.
Рисунок 1).
Здесь ).
Напротив, гибридное фотонно-плазмонное соединение в настоящее время дорого из-за зарождающегося масштабирования, что является целью Консорциума Американского института интегрированной фотоники ( АИМ Фотоника ).
Масштабирование теперь возможно благодаря последним достижениям в области нанофотоники; Концепция усиления взаимодействия света с веществом позволяет создавать компактные длины волн в оптоэлектронных устройствах с преимуществами высокой энергетической эффективности и высокой скорости работы за счет низкой электрической емкости (см.
Здесь ).
В результате ожидается, что расстояние безубыточности между электроникой и гибридными фотонно-плазмонными технологиями будет и дальше смещаться в сторону более коротких расстояний по мере нашего продвижения по шкале времени.
Например, кремниевый фотонный чип на базе КМОП, продемонстрированный IBM еще в 2015 году, близок к безубыточности (см.
ниже).
Здесь ).
Интегрированная фотоника сможет заменить электронику только в том случае, если скорость ее работы CLEAR сможет догнать общую тенденцию эволюции вычислительных систем.
выводы
Как мы видели из приведенных выше обсуждений, CLEAR можно рассматривать как универсальный технико-экономический индикатор не только из-за его широкой иерархической применимости (уровни устройства, межсоединения, системы), но и из-за его способности адаптироваться к конкретному технологическому приложению..
Например, для гибридизации сети внутри чипа.
CLEAR можно использовать не только в качестве показателя производительности для прогнозирования развития технологической платформы, но также можно сравнивать общие возможности технологической платформы(-й) в различных условиях применения, добавляя веса к каждому коэффициенту в уравнение (4) .
В этой первоначально предложенной метрике CLEAR все пять факторов линейно влияют на значение CLEAR, однако для конкретного приложения, которое критически зависит от конкретного фактора (или комбинации факторов), каждый фактор CLEAR может иметь разный вес.
Чтобы обеспечить сопоставимость, даже среди таких «индивидуализированных» показателей, может оказаться необходимым обеспечить такие Теги: #Производство и разработка электроники #Процессоры #нанотехнологии #ИТ-исследования и прогнозы #Высокая производительность #производительность #Закон Мура #фотоника #плазмоника #CLEAR
-
Особенности Резервного Копирования Sql
19 Oct, 24 -
Что Общего Между Lvm И Матрёшкой?
19 Oct, 24 -
Граффити Для Бога
19 Oct, 24