代数学の基本定理

【数学科】阿部 幸隆

  数の体系は自然数から始まる。 自然数の中では方程式 「$x + 3 = 2$」 は解を持たない。 負の数が必要である。 自然数に零と $-n$ ($n$ は自然数)を加えて整数ができる。 しかし,整数の中では,四則演算が自由に行えない。 除法が可能であるためには,(整数)/(整数) が必要である。 このような数を加えて,有理数体まで拡張される。 ところが,有理数でない実数(無理数)が紀元前5世紀頃ピタゴラス学派によって発見された。 その後,有理数と無理数を合わせた数の体系(実数体)が認識されていった。 ただし,実数についての厳密な議論は19世紀後半まで待たなければならなかった。 しかし,ここまで数体系を拡張しても,まだ解を持たない代数方程式が存在する。 「$x^2=-1$」は実数の範囲で解を持たない。 そこで,実数の単位 $1$ とは独立な,いわゆる虚数単位 $i$ を導入し,$i^2 = -1$ と定義した。 そして,$a,\ b$ を実数とし,$a + bi$ と表す数を複素数と呼んだ。 実数 $a$ と複素数 $a + 0i$ を同一視することにより,実数の集合は複素数の集合 ${\mathbb C}$ の部分集合とみなすことができる。 複素数体まで拡張すれば,解の公式からすぐわかるように,すべての2次式は複素数体で一次式の積に分解する。 それでは,一般の $n$ 次多項式についてはどうであろうか。 その答えが代数学の基本定理である。

定理(代数学の基本定理) $a_0, a_1, \dots ,a_n$ を定数(複素数でよい)とし,次の多項式を考える。
$$P(X) = a_0 + a_1 X + \cdots + a_nX^n$$ ただし,$n\geqq 1$,$a_n \not= 0$ とする。 このとき,代数方程式 $P(X) = 0$ は複素数の範囲に必ず解を持つ。

 この定理により,数体系をこれ以上拡張する必要はなくなった(複素数体は代数的閉体である)。 代数学の基本定理には多くの証明が知られている。 大学で複素解析学を学んだ際に,最大値原理,開写像定理あるいはLiouville の定理を用いた証明を学ぶのが一般的である。 ここでは,次の二つの初等的な事実を用いた証明を紹介する。

  (i) 平面内の有界閉集合上の実数値連続関数は最小値を持つ。
  (ii) すべての複素数は $k$ 乗根を持つ。

(i) は解析学の基礎である「実数の完備性」による。 (ii) は複素数の極形式による表示から容易に示すことができる。 これから述べる証明は Argan によるものである。 定理の証明のために次の補題を準備する。

補題 $k$ を自然数,$g(z)$ を $g(0)=0$ をみたす多項式とし, $$h(z) = 1 + bz^k + z^k g(z),\quad b \not= 0$$ とおく。 このとき,$|h(u)| < 1$ をみたす複素数 $u$ が存在する。

  

[証明] (ii) より,$\displaystyle{- \frac{1}{b}}$ の $k$ 乗根 $d$ が存在する。 $0 < t \leqq 1$ に対して
\begin{equation*} \begin{split} |h(dt)| & = \left|1 + bd^kt^k + d^kt^kg(dt)\right|\\[3pt] & \leqq 1 - t^k + t^k\left|d^kg(dt)\right| \end{split} \end{equation*}
である。

 $g$ は連続で $g(0)=0$ であることにより,十分小さな $0 < t < 1$ をとれば,$\displaystyle{\left|d^kg(dt)\right| < \frac{1}{2}}$ をみたす。

 このとき,
$$|h(dt)| \leqq 1 - t^k + \frac{1}{2}t^k < 1 $$
である。

 

 定理の証明 $f(z) = P(z)$ とおく。 $z \not= 0$ に対し $$|f(z)| = |z|^n \left| a_n + h\left(\frac{1}{z}\right)\right|$$ である。 ここで
$$h(w) = a_{n-1}w + \cdots + a_0w^n$$
とおいた。

 $h(w)$ は $h(0)=0$ である連続関数なので,$\delta > 0$ を $|w| < \delta $ ならば $\displaystyle{|h(w)| \leqq \frac{|a_n|}{2}}$ となるようにとれる。 さらに,$\displaystyle{r > \frac{1}{\delta }}$ を $|a_n|\,r^n > 2\,|a_0|$ をみたすようにとる。

 すると,$|z| > r$ のとき
\begin{equation*} \begin{split} |f(z)| & \geqq |z|^n\left( |a_n| - \left|h\left(\frac{1}{z}\right)\right|\right)\\[3pt] & \geqq |z|^n \frac{|a_n|}{2}\\[3pt] & > r^n \frac{|a_n|}{2}\\[3pt] & > |a_0| = |f(0)|\\[10pt] \end{split} \end{equation*} である。 (i) より $|f(z)|$ は $K = \{ z \in {\mathbb C}\,;\ |z| \leqq r \}$ 上で最小値 $|f(c)|$ $(c \in K)$ をとる。 $0 \in K$ なので $|f(0)| \geqq |f(c)|$ である。 また,上に述べたことにより,$|z| > r$ ならば $|f(z)| > |f(0)| \geqq |f(c)|$ であるので,$|f(c)|$ は ${\mathbb C}$ 上での $|f(z)|$ の最小値である。

  このとき,$f(c)=0$ を示せばよい。 $f(c)\not= 0$ と仮定する。  $\displaystyle{h(z)= \frac{1}{f(c)}f(c + z)}$ とおけば $$h(z)= 1 + b_kz^k + b_{k+1}z^{k+1} + \cdots b_n z^n,\quad b_k \not= 0$$ と表せる。 $g(z) = b_{k+1}z + \cdots + b_n z^{n-k}$ とおくと $$h(z) = 1 + b_k z^k + z^k g(z)$$ である。 $g(0)=0$ であるので,補題により $|h(u)| < 1$ となる $u \in {\mathbb C}$ が存在する。 $c' = c + u$ とおけば, $$|f(c')| = |h(u)||f(c)| < |f(c)|$$

となり,$|f(c)|$ が最小値であることに矛盾する。 したがって,$f(c) = 0$ でなければならない。
□  


TOP