Показать меню

Компромисс времени и памяти

Компромисс времени и памяти (англ. space–time trade-off, «выбор оптимального соотношения „место — время“», или, иначе, англ. time–memory trade-off, «выбор оптимального соотношения „время — память“») — компромиссный подход к решению ряда задач в информатике, при котором используется обратное соотношение требуемого объёма памяти и скорости выполнения программы: время вычислений может быть увеличено за счёт уменьшения используемой памяти или, наоборот, снижено за счёт увеличения объёма используемой памяти.

Благодаря уменьшению относительных расходов на объём ОЗУ (RAM) и памяти на жёстком диске (в течение некоторого периода времени стоимость места на жёстком диске дешевела значительно быстрее, чем стоимость других компонент ЭВМ), постепенное распространение получали приёмы, использующие доступную память для уменьшения времени вычислений. В то же время, такие приёмы, как сжатие данных, демонстрируют альтернативный подход — экономное использование памяти за счёт дополнительных преобразований данных из одного формата в другой.

Примеры применения

Таблицы поиска

Многие задачи поиска, такие как непрерывная задача о рюкзаке, задача о дискретном логарифме или задача обращения односторонней функции, решаясь, по сути, перебором, допускают в то же время использование т. н. таблиц поиска (англ. lookup tables). Идея такова: вместо того, чтобы, не используя дополнительную память, перебирать все допустимые решения, или один раз вычислить их все заранее и хранить их в памяти (часто нет ни первой, ни второй возможности), можно заранее вычислить часть допустимых значений, и, организовав их в специальную структуру данных — таблицу поиска, — осуществлять с её помощью дальнейший перебор уже непосредственно при решении задачи.

Применению данного подхода в криптографии посвящён отдельный раздел данной статьи.

Сжатие данных

Выбор оптимального соотношения «место — время» может быть применён и к проблеме хранения данных. Хранение данных в несжатом виде потребует большего объёма памяти, но на их извлечение понадобится меньше времени, чем на извлечение данных, хранящихся в сжатом виде. В зависимости от конкретной задачи может быть предпочтителен тот или иной вариант.

Классическим примером компактного представления данных может служить, к примеру, формат представления формул ΤΕΧ, используемый для написания научных статей. Результатом работы пользователя является файл специального формата, который при необходимости легко может быть преобразован в гораздо более «тяжеловесный» pdf-файл, который, в свою очередь, уже может быть использован для просмотра документа в более популярных программах просмотра нежели специфические для ΤΕΧ.

Раскрутка цикла

Раскрутка цикла (англ. loop unwinding) является весьма популярным приёмом оптимизации кода, используемым во многих компиляторах. Идея состоит в увеличении числа инструкций, исполняемых в течение одной итерации цикла. В результате уменьшается число итераций (в пределе до единицы: все инструкции исполняются одна за другой), что, в свою очередь, увеличивает эффективность работы кэша данных.

Криптография

В данном разделе рассмотрен классический пример использования подхода Space-Time Trade-Off в криптографии — применение таблиц поиска в решении криптографической проблемы обращения криптографической хеш-функции.

Криптоаналитический перебор требует значительных вычислительных затрат. В случае, если требуется многократно осуществлять взлом криптосистемы, логично было бы заранее выполнить исчерпывающий перебор и хранить вычисленные значения в памяти. Сделав это однократно, можно далее осуществлять перебор практически мгновенно. Впрочем, в реальности этот метод неприменим из-за огромных затрат памяти.

Метод, предложенный Хеллманом

В 1980 году Мартин Хеллман предложил компромиссный подход к проблеме криптоанализа, позволяющий проводить анализ криптосистемы, имеющей N {displaystyle N} ключей, за N 2 / 3 {displaystyle N^{2/3}} операций, с затратами по памяти также N 2 / 3 {displaystyle N^{2/3}} . Это становится возможным после того, как единожды будет выполнено требующее O(n) операций предварительное получение возможных ключей.

Идея заключается в следующем.

Пусть в алгоритме шифрования используется односторонняя функция S k i ( P ) {displaystyle S_{k_{i}}(P)} . По свойствам односторонней функции получение использованного ключа k i {displaystyle k_{i}} по известной паре P 0 , C 0 {displaystyle P_{0},C_{0}} — трудная задача, в то время как вычисление функции от данного открытого текста — простая задача.

Криптоаналитик применяет атаку на основе подобранного открытого текста и получает единственный шифртекст C 0 {displaystyle C_{0}} , соответствующий открытому тексту P 0 {displaystyle P_{0}} :

C 0 = S k ( P 0 ) {displaystyle C_{0}=S_{k}(P_{0})}

Задача — найти ключ k {displaystyle k} , которым осуществлялось шифрование. Для этого следует найти способ вычисления возможных ключей. Введём т. н. функцию редукции R ( C ) {displaystyle R(C)} , ставящую шифртексту C i {displaystyle C_{i}} в соответствие некий ключ k i + 1 {displaystyle k_{i+1}} (длина ключа, как правило, меньше длины шифртекста, отсюда и термин):

R ( C i ) = k i + 1 {displaystyle R(C_{i})=k_{i+1}}

Вычисление функции редукции — простая операция.

Функция f = R [ S k i ( P 0 ) ] {displaystyle f=R[S_{k_{i}}(P_{0})]}

ставит в соответствие ключу k i {displaystyle k_{i}} другой ключ k i + 1 {displaystyle k_{i+1}} . Теперь мы можем получить сколь угодно длинную цепочку ключей:

k i ⟶ f k i + 1 ⟶ f k i + 2 ⟶ f . . . {displaystyle k_{i}{stackrel {f}{longrightarrow }}k_{i+1}{stackrel {f}{longrightarrow }}k_{i+2}{stackrel {f}{longrightarrow }}...}

Для того, чтобы построить таблицу поиска, криптоаналитик задаётся m {displaystyle m} случайными элементами пространства ключей. Из каждого ключа описанным выше методом получаем цепочку ключей длины t {displaystyle t} . В память записываем только начальный и конечный ключи каждой цепочки (пары ключей сортируем по конечному ключу). Таким образом, готовая таблица занимает O ( m ) {displaystyle O(m)} ячеек памяти. Генерация таблицы требует m t {displaystyle mt} операций.

Имея построенную таблицу, криптоаналитик может проводить перебор следующим образом. Исходим из того, что использованный при шифровании ключ k {displaystyle k} встретился при генерации таблицы. В таком случае, из него не более, чем за t операций применения функции f {displaystyle f} , можно получить один из m {displaystyle m} конечных ключей, сохранённых в памяти.

После каждого применения операции редукции криптоаналитик ищет очередной полученный ключ в таблице (найти его или убедиться в его отсутствии можно за l o g ( m ) {displaystyle log(m)} операций, используя бинарный поиск, так как таблица отсортирована по конечному ключу). Встретив один из конечных ключей, можно по соответствующему ему начальному ключу восстановить всю соответствующую цепочку; искомый ключ является её предпоследним ключом.

Нахождение ключа, таким образом, занимает O ( t ⋅ l o g ( m ) ) {displaystyle O(tcdot log(m))} ; пренебрегая логарифмическим множителем, имеем O ( t ) {displaystyle O(t)} . При этом затраты памяти на хранение таблицы составляют O ( m ) {displaystyle O(m)} .

Анализ алгоритма, однако, должен учитывать, что вероятность P s u c c e s s {displaystyle P_{success}} удачного дешифрования на самом деле меньше единицы, а время дешифрования может получится большим объявленного, по указанным ниже причинам.

  • Возможны слияния цепочек, когда для некоторой пары индексов i , j {displaystyle i,j} совпадают i {displaystyle i} -й ключ одной и j {displaystyle j} -й ключ другой цепочки.
  • Возможны т. н. «ложные тревоги» (англ. false alarms), когда криптоаналитик находит в таблице более одного конечного ключа. В таком случае ему приходится проверять все соответствующие цепочки.
  • Может быть получены нижняя граница для вероятности успешного дешифрования:

    P s u c c e s s ≥ 1 N ∑ i = 1 m ∑ j = 0 t − 1 ( 1 − i t N ) j + 1 {displaystyle P_{success}geq {frac {1}{N}}sum limits _{i=1}^{m}sum limits _{j=0}^{t-1}left(1-{frac {it}{N}} ight)^{j+1}}

    Приведённое выражение соответствует приближению, что функция f {displaystyle f} — случайная величина с равномерным распределением на множестве ключей. Впрочем, устойчивая криптосистема должна быть хорошим псевдослучайным генератором.

    Оценка данного выражения приводит к следующему результату: произведение m t 2 {displaystyle mt^{2}} не имеет смысл брать большим, чем N {displaystyle N} : в противном случае, быстро падает нижняя граница вероятности успеха.

    При m t 2 = N {displaystyle mt^{2}=N} мы получим

    P s u c c e s s ≥ 0.8 m t N = 1 t {displaystyle P_{success}geq 0.8{frac {mt}{N}}={frac {1}{t}}}

    Криптоаналитик может теперь может сгенерировать не одну, а l {displaystyle l} таблиц, в каждой таблице использовав свою функцию редукции (что позволит избежать слияний цепочек из разных таблиц). При этом нижняя граница вероятности успешного дешифрования составит:

    P s u c c e s s , l ≥ 1 − [ 1 N ∑ i = 1 m ∑ j = 0 t − 1 ( 1 − i t N ) j + 1 ] l {displaystyle P_{success,l}geq 1-left[{frac {1}{N}}sum limits _{i=1}^{m}sum limits _{j=0}^{t-1}left(1-{frac {it}{N}} ight)^{j+1} ight]^{l}}

    Выбрав l = t {displaystyle l=t} , криптоаналитик получает затраты m t {displaystyle mt} по памяти и t 2 {displaystyle t^{2}} по времени (в каждой таблице использована своя функция редукции, поэтому при дешифровании надо получать свою цепочку для каждой таблицы) при вероятности успеха, близкой к единице[сноска, объясняющая почему будет мало и число ложных тревог и ссылка на Хеллмана]. Взяв t = m = N 1 / 3 {displaystyle t=m=N^{1/3}} , получим требуемые затраты N 2 / 3 {displaystyle N^{2/3}} по времени и памяти.

    Другие примеры

    Другие алгоритмы, которые также используют «выбор оптимального соотношения „место — время“»:

    • Алгоритм Шенкса, применяемый для расчёта дискретных логарифмов.
    • Динамическое программирование, при котором временная сложность задачи, эффективно разбивающейся на подзадачи, может быть значительно снижена путём мемоизации — сохранения уже вычисленных решений подзадач.
    • Радужные таблицы в криптографии — усовершенствованный вариант таблиц поиска для обращения криптографических хеш-функций.
    Еще по этой теме:
    ATI HyperMemory
    04:00, 24 февраль
    ATI HyperMemory
    ATI HyperMemory (HyperMemory или HM) — технология, разработанная американской компанией AMD, позволяющая использовать ОЗУ как часть или весь кадровый буфер видеокарт линейки Radeon и чипсетами
    KSM
    05:23, 17 декабрь
    KSM
    KSM (англ. kernel same-page merging, иногда трактуется как kernel shared memory) — технология ядра Linux, которая позволяет ядру объединять одинаковые страницы памяти между различными процессами или
    Netduino
    15:40, 15 декабрь
    Netduino
    Netduino — открытая аппаратная вычислительная платформа, базирующая на .NET Micro Framework и использующая 32-битные микроконтроллеры ARM. Платы Netduino (за исключением вариантов Mini и Go)
    Фаустин (святой)
    16:10, 11 декабрь
    Фаустин (святой)
    Фаустин — имя, которое носили некоторые христианские святые: Фаустин Африканский, мученик. Пострадал в Северной Африке вместе с Сатурнином, Наффанианом (Naffanianus) и семью товарищами. День памяти
    X32 ABI
    15:01, 11 декабрь
    X32 ABI
    x32 ABI — находящийся в стадии разработки проект двоичного интерфейса приложений для Linux, который позволяет компилировать программы для x32 ABI и работать в 64-разрядном режиме x86-64 с
    nForce2
    10:54, 08 декабрь
    nForce2
    nForce2 — чипсет для материнской платы, выпущенный фирмой nVidia в 2002 г. Поддерживал процессоры Athlon, Athlon XP, Duron и Sempron Socket A. Имел поддержку системной шины 100(200), 133(266) и
    Комментарии:
    Добавить комментарий
    Ваше Имя:
    Ваш E-Mail: