Моделирование разброса параметров транзисторов в КМОП СБИС . Часть 2
Все статьи цикла:
- Моделирование разброса параметров транзисторов в КМОП СБИС. Часть 1
- Моделирование разброса параметров транзисторов в КМОП СБИС. Часть 2
- Моделирование разброса параметров транзисторов в КМОП СБИС. Часть 3
3. Метод главных компонентов
Метод главных компонентов (Principal Component Analysis, PCA) позволяет сократить количество статистических переменных при сохранении максимально возможного количества статистической информации, содержащейся в исходных данных.
Для этого выполняется линейное преобразование пространства входных коррелированных переменных в новое пространство статистически независимых переменных, которые называются главными компонентами. Главные компоненты сортируются по величине дисперсии, затем отбираются первые несколько из них таким образом, что их суммарная дисперсия приблизительно равна сумме дисперсий всех главных компонентов. Это позволяет пренебречь остальными главными компонентами. Поэтому количество переменных, которые надо варьировать при статистическом моделировании, становится меньше. В литературе приводится пример, когда 50 исходных параметров модели BSIM3 были заменены всего 8 главными компонентами при сохранении 90% суммарной дисперсии [8]. В другом примере из 27 параметров модели МОП-транзистора Level 3 было отобрано только 6 параметров, которые обеспечили 81% суммарной дисперсии [27]. В работе [28] для 16 параметров модели BSIM было отобрано только 6 главных компонентов, в работе [29] были оставлены только 2–3 главных компонента взамен 15 параметров модели Level 3, которые сохраняют 75% дисперсии входных параметров.
Метод главных компонентов был предложен Пирсоном еще в 1901 году, однако для статистического моделирования ИС начал использоваться только в последние 10 лет в связи с проблемами, возникшими при переходе к нанометровой технологии.
Перед применением метода главных компонентов желательно проанализировать имеющиеся данные и чувствительность тока стока модели к изменению ее параметров. После такого анализа можно сократить набор параметров модели. Однако для аналоговых цепей, которые особенно чувствительны к разбросу параметров, этот подход может дать слишком грубый результат.
Поэтому основным методом, направленным на уменьшение количества статистических переменных, является метод главных компонентов (Principal Component Analysis — РСА).
Метод главных компонентов иногда путают с факторным анализом. Различие между ними состоит в том, что в методе главных компонентов переход к новым переменным осуществляется так, чтобы в преобразованном пространстве сохранялась максимальная часть суммарной дисперсии переменных, а в факторном анализе новые переменные находят из условия наилучшего воспроизведения ковариационной матрицы.
Рассмотрим суть метода главных компонентов на нереалистично простом, но очень наглядном примере. На рис. 3.1, а показана статистическая зависимость подвижности дырок от подвижности электронов для 0,6 мкм КМОП-технологии [14]. Переменные μop и μon являются статистически зависимыми, коэффициент корреляции равен r = 0,954, разброс подвижности электронов σ(μon)=32 см2B-1c-1 сопоставим с разбросом подвижности ды-рок σ(µop) = 13,5 см2B-1c-1. Можно заметить, что если ввести новую ортогональную систему координат (z1, z2) таким образом, чтобы одна из координатных осей совпадала с линией среднеквадратической регрессии μop = 0,401(μon – 519)+183, (рис. 3.1, а), товновых координатах (рис. 3.1, б) переменные z1 и z2 становятся статистически независимыми. Коэффициент корреляции здесь равен нулю, адисперсия после преобразования равна σ²1=1,95 и σ²2=0,0462.
Заметим, что дисперсия σ2 составляет только 2,3% от суммарной дисперсии обеих переменных и теперь мы можем ею пренебречь, выполняя статистическое моделирование ИС с использованием только одной случайной переменной z1. При этом каждому значению случайной величины z1 будут соответствовать значения двух случайных величин µop и µon , которые вычисляются путем обратного перехода от новых координат к старым.
В случае многих переменных x = (x1, x2, …, xp)’, где ‘ — знак транспонирования вектора, статистическая связь между ними отражается квадратной ковариационной матрицей C размером p×p, элементы которой являются ковариациями переменных xi и xj, Ci,j = cov(xi , xj). Преобразование координат, аналогичное вышеописанному, в многомерном случае выполняется линейным отображением пространства переменных x в пространство новых переменных z, которые называются главными компонентами:
или
где .’k — k-я строка (α’k,1 α’k,2 …α’kp) коэффициентов матрицы линейного отображения α’; k = 1, …, p.
В качестве входных переменных x используют нормированные и центрированные значения параметров модели МОП-транзистора Pi, то есть
где μi и σi — математическое ожидание и среднеквадратическое отклонение параметра Pi.
Вектор αk в (3.2) требуется найти. Он должен быть выбран таким образом, чтобы дисперсия первого главного компонента D(z1) была наибольшей среди дисперсий всех {zk}:
Математические выкладки, ведущие к нахождению αk, приводятся во многих источниках, посвященных методу главных компонентов; мы здесь будем следовать работе [30]. Используя определение (3.2), дисперсию первого главного компонента можно записать в виде
Справедливость этого соотношения для матрицы α’ можно доказать следующими преобразованиями:
Здесь использовано равенство
которое выводится с использованием свойств математического ожидания следующим образом:
Здесь для сокращения записи нижним индексом i внутри квадратных скобок помечен i-й элемент вектора-столбца, i = 1, …, p.
Аналогично можно доказать, что
В вышеприведенных выкладках α может быть как матрицей, так и вектором.
Вернемся теперь к соотношению (3.5). Нам необходимо найти такие коэффициенты αij в уравнении (3.1), при которых дисперсия D(z1) (3.5) становится максимальной. Это будет соответствовать настройке первой новой координатной оси z1 вдоль направления максимального разброса компонентов вектора x.
Однако максимум выражения (3.5) не существует, поскольку при неограниченном увеличении компонентов вектора α1 также неограниченно возрастает и α’1×C×α1. Поэтому необходимо ввести ограничение на длину вектора α1, выбрав ее равной, например, единице:
(то есть сумма квадратов компонентов вектора равна единице). Одновременно это соотношение упрощает обратный переход от главных компонентов к исходным переменным x. Чтобы найти максимум α’1×C×α1 при варьировании компонентов вектора α1 и при ограничении на длину вектора α’1×α1 = 1, можно воспользоваться методом множителей Лагранжа для условной оптимизации, то есть искать максимум выражения
где λ— множитель Лагранжа.
В точке максимума производная выражения (3.10) по вектору α1 равна нулю:
Производная скалярной функции от векторного аргумента Φ(α1) по вектору α1 является вектором-столбцом, компоненты которого равны производным от функции по компонентам вектора α1 = (α1,1, α1,2, …, α1,p). Например,
Выражение (3.11) можно преобразовать к виду
где Ip — единичная матрица размером (p×p). Однако из формы последнего уравнения следует, что λ равен собственному значению, а вектор α1 — собственному вектору матрицы C.
Поскольку уравнению (3.12) удовлетворяют p собственных векторов, соответствующих p собственным значениям, необходимо выбрать те из них, которые придают величине α’1×C×α1 максимальное значение. Поскольку C×α1 = λ×α1 (3.11), то
то есть для обеспечения максимальной дисперсии первого главного компонента D(z1) = α’1×C×α1 необходимо выбрать максимальное значение λ из p значений, удовлетворяющих соотношению (3.12); обозначим его λ1.
Итак, первый главный компонент равен z1 = α’1×x, где α1 — собственный вектор ковариационной матрицы C, соответствующий ее максимальному собственному значению λ1.
Найдем теперь второй главный компонент. Аналогично вышеизложенному, он будет равен z2 = α’2×x, а его дисперсия D(z2) = D(α’2×x) = α’2×C×α2 должна быть наибольшей среди дисперсий оставшихся p – 1 главных компонентов. Следующим требованием ко второму главному компоненту является его нулевая ковариация cov(.,.) с первым главным компонентом (поскольку главные компоненты должны быть статистически независимы), то есть кроме максимума α’2×C×α2 должно выполняться условие cov(z1, z2) = 0, или cov(α’1×x, α’2×x) = 0. Из свойств ковариационной матрицы следует, что
Это равенство можно пояснить следующей цепочкой преобразований:
Поскольку выше нами было использовано условие α’1×α1 = 1, которое означает ортогональность собственных векторов ковариационной матрицы, то из (3.11) следует α’1×C = λ1×α’1; заметим также, что из (3.13) следует C×α1 = λ1×α1. Поэтому серию последовательных равенств (3.14) можно продолжить:
Таким образом, для выполнения требования статистической независимости первого и второго главных компонентов необходимо выполнить любое из условий
Выбирая последнее из приведенных равенств, а также ограничение длины вектора α’2×α2 = 1 и используя два множителя Лагранжа, λ и ø, получим критериальную функцию, которую требуется максимизировать, чтобы второй главный компонент был максимальным из оставшихся:
Условие максимума можно получить, дифференцируя (3.18) по α2 и приравнивая полученную производную к нулю:
Умножим последнее равенство на α’1 слева:
Поскольку согласно (3.17) первые два слагаемых в этом равенстве равны нулю и α’1×α1 = 1, то должно выполняться равенство ø= 0. Следовательно, из (3.19) получим соотношение
или
Таким образом, λ здесь можно рассматривать как следующее собственное значение λ= λ2 ковариационной матрицы C с соответствующим ему вторым собственным вектором α2. Поскольку мы искали максимальное значение α’2×C×α2, а из (3.21) следует (если умножить обе части равенства слева на α’2), что
то найденное здесь собственное значение λ2 ≠ λ2 также является максимальным. Если предположить, что все собственные значения ковариационной матрицы различные, то α1. Если предположить обратное, то тогда должно было бы выполняться условие равенства собственных векторов α2 = α1, что нарушило бы условие α’1×α2 = 0 (3.11). Таким образом, λ является вторым по величине наибольшим собственным значением ковариационной матрицы, а α2 является соответствующим ему собственным вектором.
Аналогично можно показать, что векторы коэффициентов в (3.2), соответствующие k = 3, 4,…p, являются третьим, четвертым и т. д. собственными векторами ковариационной матрицы C, которые соответствуют собственным значениям λ3, λ4, …, λp, расположенным в порядке убывания величины.
Таким образом, дисперсии главных компонентов
для k = 1, 2, …, p, или
Если составить матрицу A так, что ее k-м столбцом является k-й собственный вектор αk ковариационной матрицы, то матрица A будет ортогональной (A’×A = Ip, A’ = A–1) и преобразование переменных x в пространство главных компонентов z примет вид:
или
Аналогично можно составить диагональную матрицу Λ, у которой k-й диагональный элемент равен собственному значению λk = σ2(zk). Тогда, используя последнее равенство в (3.23), получим:
то есть с помощью преобразующей матрицы A ковариационная матрица C может быть приведена к диагональному виду Λ преобразованием подобия (3.27). Из последнего равенства следует
или
Рассмотрим геометрическую интерпретацию преобразования (3.27). Для этого рассмотрим уравнение p-мерного эллипсоида
Если выполнить преобразование p координат вектора x в главные компоненты, то в пространстве главных компонентов эллипсоид будет располагаться так, что его главные оси совпадут с осями координат [30], причем величины полуосей эллипсоида будут равны λi1/2. Этот результат аналогичен полученному в начале главы для случая двух переменных (см. рис. 3.1). Поскольку эллипсоид является поверхностью равной вероятности для многомерного нормального дифференциального распределения, то можно сказать, что новые оси координат в многомерном случае настраиваются вдоль наибольших дисперсий переменных для нормального распределения.
Использование ковариационной матрицы часто неудобно для практических целей, поскольку параметры моделей имеют различные размерности. Поэтому на практике всегда используют вспомогательные нормализованные и центрированные переменные (3.3), а ковариационную матрицу преобразуют в корреляционную. Это можно выполнить с помощью соотношения (1.2) или по той же методике, что и в случае ковариационной матрицы, но для переменных, нормированных на их среднеквадратическое отклонение. Заметим, что, несмотря на простоту перехода от одной матрицы к другой, простого соотношения между главными компонентами, полученными из ковариационной и корреляционной матрицы, не существует.
Обратный переход от нормализованных переменных к ненормализованным выполняют по формуле, следующей из (3.3):
После нахождения главных компонентов оценивают относительный вклад каждого из них в суммарную дисперсию или относительную сумму первых q наибольших дисперсий по формуле
где q — порядковый номер данного главного компонента, n — количество переменных. Главные компоненты, которые вносят небольшой вклад (например, менее 5%) в суммарную дисперсию, могут быть исключены из рассмотрения. При этом общее количество статистических переменных уменьшается, что и является основной целью метода главных компонентов.
Таким образом, алгоритм применения метода главных компонентов состоит из следующих шагов.
- Нормализуют входные параметры модели транзистора (3.3).
- Находят матрицу корреляции.
- Находят собственные значения и собственные векторы корреляционной матрицы, используя хорошо известные вычислительные процедуры.
- Из полученных собственных значений составляют матрицу Λ, располагая собственные значения в порядке их убывания, а из собственных векторов составляют матрицу A, считая, что собственные векторы являются столбцами матрицы A и их надо располагать в той же очередности, что и собственные значения.
- Отбирают наиболее существенные главные компоненты, пользуясь, например, критерием (3.32) или иными соображениями. Например, отбор можно вести с учетом важности того или иного параметра в конкретной задаче или с учетом чувствительности цепи к данному параметру.
- Поскольку главные компоненты получены из центрированных входных переменных (3.3), у которых математическое ожидание равно нулю, то и математическое ожидание главных компонентов также равно нулю. Зная математическое ожидание и дисперсию главных компонентов (3.23), мы можем сгенерировать их значения, распределенные по нормальному закону (например, для моделирования методом Монте-Карло). Полученные таким образом значения главных компонентов можно преобразовать в соответствующие им параметры компактной модели путем обратного перехода от главных компонентов к безразмерным параметрам модели:
то есть
где m — количество главных компонентов. Далее можно перейти к размерным величинам
которые можно использовать как входные параметры модели МОП-транзистора для моделирования на SPICE.
Одним из недостатков метода главных компонентов является возможность непреднамеренного пренебрежения важными параметрами транзистора, которые имеют большой коэффициент влияния на характеристики моделируемой схемы. Такая возможность существует потому, что информация о важности того или иного параметра никак не учитывается в процедуре отбора существенных главных компонентов. Это может привести к большим ошибкам при статистическом анализе чувствительных аналоговых цепей [31]. Для решения этой проблемы можно использовать эмпирически задаваемые весовые коэффициенты wi [30, 31]:
или
где Pi и xi
— взвешенные переменные. В частном случае, при wi = σi получаем рассмотренный ранее «классический» метод.
Весовые коэффициенты могут выбираться пропорционально коэффициентам чувствительности моделируемой цепи к соответствующим параметрам транзистора. Можно также физическим параметрам назначать большие веса, чем эмпирическим, если это соответствует смыслу решаемой задачи [31].
Пример
Пусть дана матрица корреляции параметров модели BSIM3 (табл. 1.1). Найдем для нее диагональную матрицу собственных значений. Временно, с целью отбора наиболее существенных главных компонентов, собственные значения расположим в порядке их убывания:
После такой сортировки нетрудно построить график зависимости относительной кумулятивной суммы Kq собственных значений матрицы (3.32) от количества слагаемых q (рис. 3.2). Можно заметить, что увеличение числа главных компонентов начиная с q = 4 практически не увеличивает суммарную дисперсию первых q главных компонентов. Поэтому для статистического моделирования с погрешностью учета дисперсии 5% достаточно оставить только 4 главных компонента, соответствующих первым четырем собственным значениям матрицы Λ(3.37).
Этим четырем собственным значениям соответствуют 4 собственных вектора, которые являются столбцами матрицы A:
Поскольку среднеквадратические отклонения отобранных главных компонентов z1, z2, z3, z4 известны (3.24), а их математические ожидания равны нулю и главные компоненты статистически независимы по определению, то мы имеем достаточно информации для того, чтобы с помощью генератора случайных чисел получить случайные значения главных компонентов z1, z2, z3, z4. Зная эти значения, можно получить величины параметров компактной модели для использования в SPICE:
Аналогично вычисляются значения оставшихся 6 параметров из таблицы 1.1.
Таким образом, варьируя всего 4 главных компонента z1, z2, z3, z4, мы задаем значения всех 8 параметров модели транзистора, указанные в таблице 1.1. Это уменьшает количество вариантов расчета схемы при статистическом анализе.
Несмотря на широкое применение, метод главных компонентов имеет ряд недостатков. Он использует ортогональную систему координат, что не всегда приводит к наилучшему решению. При анализе разброса в пределах пластины, когда корреляционная зависимость слишком сложная, поворот осей часто не приводит к уменьшению числа статистических переменных. Техника выполнения преобразований в этом методе является достаточно громоздкой. Главные компоненты не имеют физического смысла, поэтому невозможно установить физическую причину разброса с целью целенаправленной коррекции техпроцесса.
Пример ситуации, когда метод главных компонентов дает ошибочные результаты, показан на рис. 3.3. Случайные изменения длины канала приводят к случайному изменению величины порогового напряжения, однако строго прослеживается зависимость, которую можно объяснить обратным эффектом короткого канала: транзисторы с более коротким каналом имеют большее пороговое напряжение (рис. 3.3). Меньшая группа данных имеет противоположную тенденцию: приборы с меньшей длиной канала имеют меньшее пороговое напряжение. К такого рода зависимости может привести другой механизм, а именно детерминированное изменение продольного профиля легирования у краев пластины.
Рассмотренная зависимость не может быть адекватно использована в методе главных компонентов, поскольку в данном случае любой выбор новых осей координат не приводит к независимости между длиной канала и пороговым напряжением. Кроме того, если количество точек на кривой со светлыми квадратами (рис. 3.3) будет намного больше, чем на другой кривой, то, поскольку метод главных компонентов выбирает оси в соответствии с линией регрессии, важная статистическая информация, представленная второй кривой, будет игнорирована, хотя она имеет гораздо большую дисперсию (см. рис. 3.3). В этом случае метод главных компонентов даст заниженное значение разброса.
Описанная проблема может быть решена путем разделения случайного и систематического компонентов разброса (см. следующий раздел). Тем не менее, необходимо понимать смысл преобразований, выполняемых в методе главных компонентов, чтобы не получить ложный результат.
4. Геометрические зависимости разброса параметров
Дисперсия параметров транзисторов зависит от двух геометрических факторов: от площади приборов и расстояния между ними. С увеличением площади транзистора пропорционально уменьшается и дисперсия его параметров, что связано со статистическим усреднением пространственных неоднородностей по площади прибора. Близко расположенные транзисторы имеют неодинаковые параметры, и дисперсия их рассогласования увеличивается пропорционально расстоянию между транзисторами. Эти эффекты были детально изучены и подтверждены обширным статистическим материалом в работе Пелгрома [32], которая получила очень широкое распространение в практике статистического моделирования ИС.
Однако закон Пелгрома первоначально был получен для транзисторов с минимальными размерами более 1 мкм и учитывал только локальный разброс (рассогласование) параметров МОП-транзисторов. С появлением транзисторов субмикронных размеров в закон Пелгрома были введены некоторые поправки и предложены иные способы моделирования зависимости разброса от геометрии.
4.1. Локальный разброс. Закон Пелгрома
Для моделирования рассогласования параметров транзисторов, расположенных на одном кристалле, используют «закон Пелгрома» [32], который утверждает, что дисперсия σ2(ΔP) разности параметров ΔP двух одинаковых МОП-транзисторов зависит от расстояния между ними D и их активной площади W×L (W и L — ширина и длина канала) по закону
где A2P и S2P — экспериментально определяемые константы (подгоняемые параметры). На рис. 4.1 приведен пример экспериментально полученной зависимости среднеквадратического отклонения порогового напряжения Vtho от площади транзистора [11], которая хорошо согласуется с выражением (4.1).
Выражение (4.1) было получено Пелгромом теоретически и подтверждено во многих работах экспериментально. При теоретическом выводе соотношения (4.1) были использованы следующие предположения:
- флуктуации параметров технологического процесса вдоль поверхности полупроводниковой пластины описываются моделью белого шума;
- воздействие факторов, вызывающих разброс, достаточно мало, поэтому их можно суммировать алгебраически.
- первый член выражения (4.1) получен в предположении, что интервал пространственной автокорреляции шума много меньше размеров транзистора; второй член — в предположении, что имеется дополнительный стохастический процесс, для которого интервал автокорреляции сравним с размерами кристалла (его причиной являются медленно меняющиеся пространственные неоднородности кремния и процессов обработки).
Первый член в (4.1) объясняется простым усреднением пространственного шума в окне величиной W×L. Второй член связан с систематическими пространственными погрешностями технологического оборудования и является детерминированной величиной. Однако поскольку после сборки кристаллов в корпус информация о положении кристалла на пластине теряется, этот разброс можно моделировать как случайный, с большой дистанцией автокорреляции [32]. При увеличении расстояния между транзисторами более 100 мкм появляется случайный компонент, который можно объяснить с помощью представления о пространственном шуме, спектр которого подобен спектру 1/f шума в электронных приборах [33], то есть компоненты шума с более низкой пространственной частотой имеют большую амплитуду. Тогда с увеличением расстояния между транзисторами увеличивается вероятность воздействия на них компонентов шума с большей амплитудой [33].
Параметр ΔL модели транзистора (уменьшение эффективной длины канала по сравнению с длиной на фотошаблоне вследствие латеральной диффузии истока и стока) не зависит от длины активной области, поскольку усреднение его происходит только при увеличении ширины канала [20]:
Аналогично, параметр уменьшения ширины канала вследствие подтравливания окисла
Теория Пелгрома не учитывает некоторые эффекты субмикронных технологий и может давать двукратную ошибку в расчетах [34]. В частности, в ней не учитывается эффект насыщения: начиная с некоторой дистанции между транзисторами дальнейшее ее увеличение в экспериментах не приводит к увеличению разброса [35]. Теория Пелгрома не объясняет и не учитывает также эффект увеличения дисперсии параметров по мере приближения к краям пластины от ее середины, не указывает, как разделить случайный и систематический разброс. Не учитываются также физические эффекты, влияющие на разброс параметров существенно субмикронных транзисторов: латеральная диффузия, HALO или ионная имплантация в карман, перекрытие объемных зарядов, флуктуации легирующей примеси в канале, деградация подвижности и др.
Тем не менее, результаты, представленные Пелгромом в более поздней статье [11] для транзисторов, выполненных по технологии 0,18 мкм с толщиной окисла 3,3 нм (рис. 4.2), говорят о том, что зависимость (4.1) может быть использована и для транзисторов с субмикронными размерами. В работе [36] также было получено подтверждение справедливости зависимости
даже для транзисторов с длиной канала менее 100 нм.
Дальнейшие уточнения закона Пелгрома велись по пути увеличения количества эмпирически подбираемых коэффициентов. При этом благодаря увеличению числа степеней свободы в процедурах среднеквадратической подгонки повышается точность аппроксимирующих формул. Такой подход использован в моделях [37, 38], где вместо одного параметра модели Пелгрома AP используются три подгоночных параметра A1P, A2P, A1P:
Несколько иные поправки использованы в модели [39], которая верифицирована для транзисторов с длиной канала 0,8 мкм:
где ΔW и ΔL имеют тот же смысл, что и в (4.2 — 4.3), но в данном случае берутся их математические ожидания.
Наиболее точная модель, содержащая 9 подгоняемых коэффициентов, описана в работе [40]. Зависимость дисперсии разброса параметров θo (параметр деградации подвижности в омической области), θe (поправка к θo для области насыщения), γ (коэффициент влияния подложки), β, Vtho от длины и ширины канала в этой модели описывается одним и тем же соотношением для всех параметров:
где Cij, DW, DL — подгоняемые коэффициенты.
Общим недостатком описанных моделей является их полуэмпирический характер: они не устанавливают физически обоснованных соотношений между разбросом параметров техпроцесса и параметров модели. Физически обоснованная модель предложена в работе [41]. Благодаря анализу физических процессов, приводящих к разбросу параметров, удалось получить аналитические соотношения, устанавливающие связь параметров аппроксимирующих формул с параметрами технологического процесса. Модель использует соотношение, аналогичное (4.4) для зависимости Vtho и β от длины и ширины канала, однако константы, определяемые в (4.4) экспериментально, в данной модели рассчитываются исходя из геометрии транзистора и параметров технологического процесса. Модель верифицирована для длин каналов 0,4 мкм, 0,35 мкм, 0,25 мкм и 0,18 мкм.
4.2. Моделирование геометрических зависимостей глобального разброса
Для оценки величины глобального разброса обычно используют измерение параметров сходных структур, расположенных на разных кристаллах одной и той же пластины с последующим усреднением полученных данных в движущемся окне. Величина окна выбирается такой, чтобы убрать пространственный шум, связанный с локальным разбросом. Однако такой простой способ часто неэффективен. Более точные методы оценки величины глобального разброса предложены в работе [42]. Это усредняющий алгоритм оценки с прореживанием, сглаживание сплайном, метод регрессии, а также метод, представляющий собой линейную комбинацию нескольких перечисленных методов.
Усредняющий алгоритм оценки с прореживанием использует интуитивно понятный эффект — после усреднения данных, попадающих внутрь движущегося прямоугольного окна, можно сгладить быстро изменяющиеся компоненты пространственного шума. Алгоритм начинается с интерполяции исходных данных на равномерной сетке. Количество узлов сетки выбирают примерно равным количеству исходных данных. Затем сетку делают в 4 раза реже. Для каждого узла прореженной сетки вычисляют среднее значение, используя данные в близлежащих узлах. Обычно берутся данные и тех узлов, которые были выброшены при прореживании. Количество точек, по которым вычисляется среднее, является параметром алгоритма оценки, и оно определяет границу, по которой отделяют локальный разброс от глобального. Полученные таким усреднением данные в узлах грубой сетки используются в дальнейшем для обратной интерполяции, чтобы получить данные в узлах густой сетки. Таким способом устраняется пространственный шум, не связанный с глобальным разбросом параметров по пластине. После вычитания глобального разброса из исходных данных получают локальный разброс.
Этот алгоритм требует контроля за возможным появлением алиасных частот, возникающих в результате биения частоты входных данных и частоты, связанной с шириной усредняющего окна. Эффект биения может возникать при ярко выраженной периодичности входных данных, обусловленной периодичностью расположения кристаллов на пластине. Использование более широкого усредняющего окна ослабляет этот эффект, однако появляются большие ошибки на краях пластины, где обрывается периодическая последовательность исходных данных. В этих случаях лучшие результаты дает оценка с помощью сплайна или уравнения регрессии [42].
Алгоритм оценки величины глобального разброса с помощью сплайна начинается также с интерполяции входных данных в узлах равномерной сетки. Затем выполняется процедура сглаживания сплайном вдоль одной, затем вдоль другой координаты [42]. В узлах сетки берется среднее арифметическое между значениями сплайна для одной и другой координаты. Оценивание сплайном дает очень точные результаты при правильном выборе коэффициента натяжения сплайна, однако этот метод достаточно сложен для его воплощения.
Наиболее простой процедурой оценки является среднеквадратическая подгонка уравнения регрессии к входным экспериментальным данным. В качестве уравнения регрессии обычно используют уравнение поверхности первого [9] или второго порядка, в декартовых координатах x, y [43, 42, 44]:
или в полярных координатах (r, θ):
где a, b, c, d — оцениваемые (подгоняемые)параметры.
Поскольку полином вида (4.7), в отличие от сплайна, имеет всего 4 варьируемых параметра, он может оказаться недостаточно гибким, чтобы выделить из исходных данных глобальный разброс сложной формы. В этом случае лучшие результаты дает сглаживание сплайном. Преимуществом регрессионного метода оценки является компактность выражения (4.7).
В описанных алгоритмах оценки величина усредняющего окна или коэффициент натяжения сплайна являются параметрами, которые определяют границу между локальным и глобальным разбросом. Выбор этих параметров должен быть каким-то образом обоснован. В работе [42] для этой цели предлагается использовать понятие среднего интервала автокорреляции. Средний интервал автокорреляции вычисляется путем построения автокорреляционной функции для нескольких сечений по диаметру пластины, взятых случайным образом. По полученным функциям вычисляется интервал автокорреляции и берется его среднее значение для разных срезов. Интервал автокорреляции задает ширину усредняющего окна или величину коэффициента натяжения сплайна.
4.3. Статистическое моделирование ИС с учетом пространственной корреляции параметров модели
При статистическом моделировании ИС нужно сгенерировать наборы случайных значений параметров транзисторов ИС, которые будут использоваться при каждом запуске программы моделирования. Самое простое решение этой задачи состояло бы в том, чтобы получить случайные значения каждого параметра P (например, Vtho или μ0) с помощью генератора случайных чисел. Для этого достаточно было бы сложить математическое ожидание μp параметра P со случайной величиной N(0, σ2P), которая распределена по нормальному закону и имеет нулевое математическое ожидание и дисперсию σ2P:
В случае, когда учитывается только глобальный разброс, параметры всех транзисторов могут иметь одинаковые значения. Для учета геометрических зависимостей разброса параметры должны зависеть от расстояния между транзисторами D и их площади S, то есть
Однако такой упрощенный подход дает слишком пессимистичный результат, поскольку не учитывается корреляция параметров транзисторов. Для ее учета случайные значения параметров в каждом акте моделирования ИС должны быть выбраны таким образом, чтобы ковариационная матрица
этих параметров была равна ковариационной матрице, полученной при статистической обработке измеренных параметров транзисторов. В общем случае необходимо использовать две ковариационные матрицы: матрицу ковариации разных параметров одной и той же модели (см., например, таблицу 1.1) и матрицу пространственной ковариации одноименных параметров, принадлежащих разным транзисторам ИС. Поскольку обычно для статистического моделирования используют не параметры моделей, а главные компоненты, которые являются некоррелированными, то случайные векторы генерируют, используя только матрицу пространственной корреляции главных компонентов.
Таким образом, для корректного решения поставленной задачи необходимо сгенерировать коррелированные векторы случайных параметров P = (P1, P2, …, Pn)’ для транзисторов, такие, что
то есть математическое ожидание этого вектора должно быть равно вектору матожиданий параметров транзистора μ, а дисперсия должна быть равна ковариационной матрице C, описывающей пространственную ковариацию параметров.
Для решения этой задачи будем использовать генератор случайных чисел. Построим вспомогательный вектор независимых случайных величин x = (x1, x2, …, xn)’, распределенных по нормальному закону Nn, такой, что
где I — единичная матрица, 0 — нулевая матрица.
Тогда можно попытаться найти такое линейное отображение вектора x в вектор P, для которого вектор P будет иметь нужные нам свойства (4.11). В работе [28] эта задача решается с помощью так называемого метода «σ-пространства». В работе [45] показано, что метод «σ-пространства» эквивалентен разложению Холецкого для ковариационной матрицы C. Поскольку ковариационная матрица является симметричной и положительно определенной, разложение Холецкого позволяет представить матрицу C в виде
где U — верхняя треугольная матрица с положительными диагональными элементами.
Если искомый коррелированный вектор P получить с помощью линейного отображения
где μ — вектор матожиданий компонентов вектора P, то он будет удовлетворять соотношениям (4.11) [45]. Действительно, используя свойство математического ожидания (3.7), а также свойство (4.12) вектора x, получим:
Рассмотрим теперь дисперсию вектора P:
Здесь использовано свойство дисперсии вектора x (4.12).
Таким образом, вектор P удовлетворяет предъявляемым к нему требованиям (4.9).
Заметим, что если декомпозиция Холецкого использует нижнюю треугольную матрицу L, то есть C = L×L’, то вектор P получается в виде
Итак, используя генератор случайных чисел x1, x2, …, xn и треугольную матрицу U, полученную с помощью разложения Холецкого (4.13) для ковариационной матрицы C, а также применяя линейное отображение (4.14), мы можем получить коррелированный вектор параметров транзисторов P, необходимый для очередного запуска программы моделирования. Компоненты этого вектора коррелированы точно так, как и измеренные параметры моделируемых транзисторов.
Большую долю разброса длины канала МОП-транзистора составляет систематическая компонента [22], для учета которой в выражении для коррелированного случайного вектора (4.14) используют матожидание, зависящее от координат x, y транзистора на кристалле или пластине [22]:
Рассмотрим теперь, как получить матрицу пространственной ковариации C [46], использованную в (4.13). Для описания ковариации, обусловленной зависимостью дисперсии параметров от расстояния между транзисторами, можно воспользоваться законом Пелгрома, который дает значения дисперсии разностей параметров σ2(Pik-Pij):
где Pik,Pij, — значения i-го параметра моделей k-того и j-го транзисторов; dkj — расстояние между центрами этих транзисторов. Поэтому, пользуясь определением дисперсии, можно получить, что
где cov(Pik,Pij) — ковариация параметров Pik,Pij. Для одинаковых транзисторов
и тогда из (4.20) и (4.19) следует, что
откуда
Из ковариаций, вычисленных по формуле (4.21), можно составить матрицу C, которая была использована нами выше для получения случайного вектора P.
4.4. Совместный учет глобального и локального разброса
Для совместного учета локального и глобального разброса используется методика, аналогичная вышеописанной. Для того чтобы получить значение i-го параметра модели j-го транзистора Pij, будем использовать вспомогательные случайные переменные gi и mij снулевым математически ожиданием и дисперсией, равной соответственно σgi и σmij
. Переменная gi моделирует глобальный разброс параметра Pij (поэтому она не имеет индекса j), переменная mij моделирует локальный разброс, который различен для различных транзисторов j на кристалле. Тогда случайное значение параметра Pij можно представить в виде [46]:
где μPi — математическое ожидание параметра. Предположим теперь, что параметры различных типов, относящиеся к одному и тому же транзистору, взаимно независимы, что их всегда можно получить, используя вместо параметров соответствующие им главные компоненты. Тогда ненулевые ковариации останутся только между одноименными параметрами разных транзисторов, и их можно получить с помощью описанной выше методики — см. (4.21).
Для учета корреляции параметров при статистическом моделировании необходимо использовать коррелированные векторы, как это было описано выше — см. (4.17). Однако для учета глобального разброса вектор параметров P должен определяться двумя ковариационными матрицами Cg и Cm, первая из которых относится к глобальному разбросу, вторая — к локальному [46]:
где P — вектор n случайных коррелированных переменных с математическим ожиданием μP и ковариационной матрицей C; u и v — независимые векторы независимых случайных величин с нулевым матожиданием и единичной дисперсией; Lg, Lm — нижняя треугольная матрица, полученная путем декомпозиции Холецкого из двух блочно-диагональных ковариационных матриц Cg и Cm. Вследствие независимости между C, Cg и Cm
что отражает интуитивно понятный факт, что общая дисперсия любого параметра равна сумме локальной и глобальной дисперсий, поскольку они статистически независимы. Поэтому для генерации случайного вектора P можно использовать одну общую ковариационную матрицу C.
Окончание следует
Литература
- Бубенников А. Н., Садовников А. Д. Физико-технологическое проектирование биполярных элементов кремниевых БИС. М.: Радио и связь. 1991.
- Accurate Worst-Case Model Generation with SPAYN. Silvaco Simulation Standard. Vol. 5. No. 2. Oct. 1994.
- Michael C., Ismail M. Statistical modeling of device mismatch for analog MOS integrated circuits // IEEE Journal of Solid-State Circuits. Vol. 27. No. 2. Feb. 1992.
- Felt E., Narayan A., Sangiovanni-Vincentelli A. Measurement and modeling of MOS transistor current mismatch in analog IC’s. IEEE/ACM Int. Conf. on Computer-Aided Design. 1994.
- Jolliffe I. T. Principal Component Analysis — 2nd ed. Springer-Verlag, New York. 2002.
- The Advantages of Weighted PCA Techniques for Statistical Parameter Analysis. Silvaco Simulation Standard. Vol. 6. No. 9. Sept. 1995.
- Pelgrom M. J. M., Duinmaijer A. C. J., and Welbers A. P. G. Matching properties of MOS transistors // IEEE J. Solid State Circuits. Vol. 24. 1989.
- Oehm J., Grunebaum U., Shumacher K. Mismatch effect explained by the spectral model. Electronics, Circuits and Systems. 1999. Proc. of ICECS ’99. The 6th IEEE Int. Conf. on. Vol. 2.
- Drennan P. G., McAndrew C. C. A comprehensive mosfet mismatch model. in Proc. IEEE Int. Electron Devices Meeting. Dec. 1999.
- Conti M., Crippa P., Orcioni S., Turchetti C. Statistical modeling of MOS transistor mismatch based on the parameters’ autocorrelation function. Circuits and Systems. 1999. Proceedings of the 1999 IEEE International Symposium on ISCAS ’99. Vol. 6.
- Horstmann J. T., Hilleringmann U., Goser K. F. Matching Analysis of Deposition Defined 50-nm MOSFET’s. IEEE Trans. on Electron Devices. Vol. 45. No. 1. Jan. 1998.
- Bastos J., Steyaert M., Roovers R., Kinget P., Sansen W., Graindourze B., Pergoot A., Janssens E. Mismatch characterization of small size MOS transistor. IEEE International Conference on Microelectronic Test Structures. Vol. 8. March 1995.
- Steyaert M., Bastos J., Roovers R., Kinget P., Sansen W., Graindourze B., Pergoot A., Janssens E. Threshold voltage mismatch in short-channel MOS transistors. Electron. Lett.. Vol. 30. No. 18. Sept. 1994.
- Lovett S. J., Welten M., Mathewson A., and Mason B. Optimizing MOS Transistor Mismatch // IEEE Journal of Solid-State Circuits. Vol. 33. No. 1. Jan. 1998.
- Serrano-Gotarredona T., Linares-Barranco B. A New Five-Parameter MOS Transistor Mismatch Model // IEEE Electron Device Letters. Vol. 21. No. 1. Jan. 2000.
- Maxim A., Gheorghe M. A novel physical based model of deep-submicron CMOS transistors mismatch for Monte Carlo SPICE simulation. Circuits and Systems, ISCAS 2001. The 2001 IEEE International Symposium on. 2001.
- Stine B. E., Boning D. S., Chung J. E. Analysis and Decomposition of Spatial Variation in Integrated Circuit Processes and Devices. IEEE Trans. on Semiconductor Manufacturing. Vol. 10. No. 1. Feb. 1997.
- Tulunay G., Dundar G., Ataman A. A new approach to modeling statistical variations in MOS transistors. Circuits and Systems. ISCAS 2002. IEEE International Symposium on. Vol. 1. 2002.
- Okada K., Onodera H. Statistical modeling of device characteristics with systematic variability. IEICE Trans. Fundamentals. Vol. E84-A. No. 0.2. Feb. 2001.
- Felt E., Zanella S., Guardiani C., Sangiovanni-Vincentelli A. Hierarchical statistical characterization of mixed-signal circuits using behavioral modeling. IEEE/ACM International Conf. on Computer-Aided Design. ICCAD-96. Digest of Tech. Papers. 1996.
- Zanella S., Nardi A., Quarantelli M., Neviani A., Guardiani C. Analysis of the impact of intra-die variance on clock skew. in Proc. 4th Int. Workshop Statistical Metrology. June 1999.