プロセッサ (CPU) を高速化するには、並列化が重要となります。 並列化技術のうちの1つが「パイプライン(pipeline)」です。
複数の仕事を同時に実行する方式が「オーバラップ」です。 「パイプライン」とはオーバラップの手法の1つです。
一般に「タスク」は、連続的に実行されるいくつかの 「サブタスク」に分割することができます。 この各サブタスクを、独立して動作する複数の 論理ユニットで別々に実行してゆきます。 「パイプライン」方式においては、あるユニットは i番目のタスク(のサブタスク)を実行した次に (i+1)番目のタスク(のサブタスク)を実行します。
結果の保存 | . | . | . | . | T1 | T2 | T3 | T4 | T5 | T6 | T7 | T8 | T9 | T10 | T11 | T12 |
命令の実行 | . | . | . | T1 | T2 | T3 | T4 | T5 | T6 | T7 | T8 | T9 | T10 | T11 | T12 | . |
オペランドの用意 | . | . | T1 | T2 | T3 | T4 | T5 | T6 | T7 | T8 | T9 | T10 | T11 | T12 | . | . |
命令のデコード | . | T1 | T2 | T3 | T4 | T5 | T6 | T7 | T8 | T9 | T10 | T11 | T12 | . | . | . |
命令のフェッチ | T1 | T2 | T3 | T4 | T5 | T6 | T7 | T8 | T9 | T10 | T11 | T12 | . | . | . | . |
同一の複製ユニットをn台使ってn個のタスクを実行する方法 (図5.4)では、計算は早いのですがコストが非常に高くなります。 これに比べるとパイプラインの方はずっと経済的で、 計算速度もかなり向上します。
nステージのパイプラインに、s個のタスクが渡されると、パイプラインが 最初のタスクを完了するまでに nクロックが必要で、その後全てのタスクを 実行するのに s-1 クロックが必要です。 したがって、必要となるクロック数は Tn = n + (s-1) です。 同等な機能を持つ1個の非パイプラインユニットがs個のタスクを 実行するのに必要な時間は T1 = sn です。
速度向上率 = T1 / Tn = sn / (n + s - 1)s→∞とすると、速度向上率→nとなります。
パイプラインでは、タスクが連続的に与えられる定常状態に おいてのみ全てのユニットが動作します。 したがって、始動時と終了時には動かないユニットが存在します。
ti をユニットiの動作時間とおくと効率を次のように表わせます。
効率 = Σni=1 ti / (n × 全動作時間) = sn / n (n + s - 1) = s / (n + s - 1) = 速度向上率 / n
A と B というユニットをもつ2段のパイプラインを考えます。 もしどちらの処理時間も同じならば図5.5(b)のようになります。 処理する情報によって時間が異なるとすると図5.5(c)のように 空き時間が生じます。 この場合, T(Ai), T(Bi)を それぞれ i番目のAとBの処理時間とすると、全体の 処理時間は以下のようになります。
処理時間 = Σ(n-1)i=1 Max(T(Ai), T(B(i-1)))
ほとんどの場合は、ユニットの処理時間が固定(同じ)である 同期式パイプラインが好ましいと考えられます。 このために、あるユニットの処理時間が長くなりそうな場合は、 そのユニットの作業を分割しユニットを増やして各ユニットの 処理時間を同じになるように設計します。 これはクロック長を短くする(= 周波数を高くする) ことにも つながります。 もちろん、ユニットを増やすとユニット間で情報が渡される オーバヘッドが大きくなるので性能は上がりにくくなります。 またパイプラインを長くするとデータの依存関係も複雑に なってしまいます。 したがって、パイプラインはあまり長い物は好ましくなく、 長くても20段以下のものが多いようです。 ただ、最近のIntelのプロセッサのようにパイプラインは 長くなる傾向にあるようです。
命令やユニット間の相互関係によってパイプラインを停止(stall)しなく てはならない状況が起こります。 これをパイプライン障害(pipeline hazard)と呼びますが、 これには3つの主な原因があります。
メモリユニットや機能ユニットなどのリソースを複数の命令が同時に 要求したときにリソース競合が起きます。
(例)主記憶の競合
「メモリ・メモリ命令」とは、「ソースとデスティネーションで
共にメモリへのアクセスを必要とするような命令」のことです。
たとえば i486の命令の
addl (EBX), (EAX)は「『EAXが指すメモリ番地』の内容に『EBXが指すメモリ番地』の内容を 加えて結果を『EAXが指すメモリ番地』に書き込む」という動作を行いますが、 これはメモリ・メモリ命令です。 実行時にメモリアクセスでの競合が置きる可能性がありますので RISCでは一般にこのようなメモリ・メモリ命令は用意しない ことになっています。 しかし、命令がメモリ・メモリ命令を含んでいなくてもパイプラインでは メモリアクセスの競合は起こり得ます。 図5.12 の5段パイプラインでは 3つのユニット(命令フェッチユニットが命令を取る、 オペランドフェッチユニットはオペランドを取る、 オペランドストアユニットは結果を書き込む)が競合する 可能性があります。 (i番目の命令がフェッチされ、i-2番目の命令がソースオペランドをフェッチする、 i-4番目の命令が結果を書き込む、などの場合)。
解決策の例
命令フェッチとメモリ内のデータへのアクセスの競合問題の解決例
分岐を行うと、パイプラインで処理中の命令を捨てる必要がでてきます。
一般にプログラムの約10〜20%が分岐命令で、分岐命令は 実行速度をかなり低下させる原因になります。
(例)10nsで動作している5段パイプラインで、10命令ごとにパイプライン中の 全命令が捨てられると、1命令を処理する平均時間は (9×10ns + 1×50ns) / 10 = 14ns
改善策
ある命令が利用するデータがそれ以前の命令によって生成された データに依存する場合は、命令は指定された順番に実行しなくては いけません。
ADD R2, R1, R3 ; R3 ← R2 + R1 SUB 1, R3, R4 ; R4 ← R3 - 1この例では、ADD命令でR3の値が更新される前にSUB命令がR3を読むと 結果がおかしくなります。 対処方法
ADD 4, R4, R3 ; R3 ← R4 + 4 SUB 8, R3, R5 ; R5 ← R3 - 8 SUB 12, R3, R6 ; R6 ← R3 - 12
内部フォワーディングは、プログラマには見えないプロセッサ内部レジスタ やデータ経路を用いてハードウェアによって行われます(図5.25)。
ADD R0, R2, R3 ; R3 ← R2 + R0 SUB 8, R3, R4 ; R4 ← R3 - 8 SUB 4, R3, R5 ; R5 ← R3 - 4
伝統的な「スカラ」プロセッサはスカラ命令(整数などのスカラデータに 対する命令)を実行します。 スーパースカラ (superscalar) プロセッサは「同時に複数のスカラ命令を 実行する」プロセッサのことです。
限定的なスーパースカラ動作としては、 「整数命令と浮動小数点数命令を同時に実行する」 例が挙げられます。
スーパースカラ動作は、一般に、同時に複数の命令を取り出して実行する ことで実現できます。すなわち、スーパースカラプロセッサは複数の パイプラインを持ち、同時に実行される命令はそれぞれのパイプラインで 処理されます。
2本のパイプラインを持つプロセッサは最大2倍の速度で動作可能(図5.27, 5.28) →命令同士の依存関係が無い場合スーパースカラプロセッサを設計する方法
(例) Intel Pentium (u, v unit)
(例) Intel P6 (= Pentium Pro) 予約ステーションと並べ換えバッファも持つ
データの依存性により「ある命令は同時に実行できない」場合が 起こります。命令の乱発行 (out-of-order isshu) を許す場合は これが特に問題になります。
(例) ADD R4, R2, R1 ; R1 ← R2 + R4 ADD 1, R1, R2 ; R2 ← R1 + 1 ADD R5, R4, R1 ; R1 ← R4 + R5 (レジスタリネーミング)レジスタの名前を一時的に付け換えていきます。 ADD R4, R2a, R1a ; R1とR2に関して新しい名前が作られますが ADD 1, R1a, R2b ; そこに格納される値を参照する要求が ADD R5, R4, R1b ; なくなればこわして構いません。
レジスタリネーミングはリオーダバッファによって実現します。 リオーダバッファは先着順待ち行列で、そのエントリを 命令レジスタの結果に動的に割り付けます。
レジスタ書き込みをする命令がデコードされると、 待ち行列の先頭のエントリをその命令に割り当てます。 命令の結果の値はリオーダバッファのエントリの方に書き込まれます。 エントリが待ち行列の最後まで達していて、かつ値が書き込まれていた 場合は、レジスタファイルへ転送されます。 このエントリを解放し待ち行列を1単位分先へ移動させます。 この時点までに書き込みが行なわれていなければ、 書き込みが行なわれるまでリオーダバッファの待ち行列としての 進行は停止されます。
パイプラインを高速化する技術には
[5.1] 命令フェッチユニットと命令実行ユニットを持つマイクロプロセッサ を考えます。 このマイクロプロセッサは命令実行と命令フェッチをオーバラップできる ものとします。 T(Fi)を i 番目の命令をフェッチする時間、 T(Ei) を i 番目の命令を実行する時間と仮定し、 次の各場合での8つの逐次命令を処理するのに要する時間を 計算して下さい。 ただし、パイプラインのユニット間でデータの受け渡しは 非同期的に行われるものとします。
[5.2] 36個の命令を処理するとき、3, 9, 10, 24, 27 番目の命令が 条件分岐命令である場合の5ステージ命令パイプラインの平均命令 処理時間を求めて下さい。 ただし、分岐命令がデコードされた時には、パイプラインは完全に クリアされるものとします。
インテルは近年64bitプロセッサ Itanium (←プロセッサ名)を出荷しました。 さらにインテルは、大幅に性能を向上させたItaniumプロセッサ (McKineley や Madison ←開発コード名)を開発しています。 これらは VLIW プロセッサです。 これからは VLIW アーキテクチャが流行ってゆく可能性があります。
VLIW (Very Long Instruction Word)プロセッサとは、 長い命令を採用したプロセッサのことです。 1命令が長いために、1命令の中に複数のユニットの それぞれに対する動作の指定を含めることができます。
VLIWでないプロセッサでは、命令の実行時に動的に 判断してプロセッサ内の各ユニットが効率よく並行 動作できるように、命令の実行をスケジューリングしていました。 そのために、競合を判断して実行を一時止めたり、 命令の発行順序を変えたりするなど、大変な制御を 行っていたわけです。
これに対してVLIWでは、コンパイル時にプロセッサ内の 各ユニットが効率良く動作できるようにスケジューリング してしまいます。 そのスケジューリングにしたがって各ユニットの動作を 指定した命令を生成してゆくわけです。 こうすると、プロセッサにおいて命令を実行するときは、 命令に記述されている通りに各ユニットを動作させれば よいことになります。 すなわち、複雑な動的制御がいらないので、高速化が 可能になる、というわけです (コンパイラが効率の良いコードを本当に出してくれれば、 ですが)。