記号の世界ゟ

このブログでは, 数学書などの書評を書きます。また、受験などの勉強法をまとめます。

超幾何方程式の特性指数の差をずらす操作について

ガウスの超幾何方程式が代数解を持つものは、シュワルツによりリスト化されています.ここで、リストの右の付加条件が気になります.実はこの条件は方程式を簡単なものに変換するための条件と関係するのです.つまり,整数の差はおおむね無視することができるのです.今回はこの変換について簡単に説明します.

f:id:tetobourbaki:20200329191632p:plain
代数解を持つ方程式のリスト
参考文献 河野実彦『微分方程式と数式処理』(図もこの本から引用したものです)

前提知識


リーマンのぺー関数  \wp (t) は特性指数をもちいて

\displaystyle \quad \wp\left\{
\begin{matrix}
0 & 1 & \infty & \\
\lambda & \mu & \nu &; t\\
\lambda' & \mu' & \nu' &\\
\end{matrix}
\right\}
のように書かれるが,ブログでこれを書くのは大変なので簡略化して

\displaystyle \quad \wp\left\{
\begin{matrix}
\lambda & \mu & \nu\\
\lambda' & \mu' & \nu\\
\end{matrix}
\right\}
と表すことにする. t^{-\lambda} (t-1)^{-\mu} をかけると、
 
\displaystyle \quad t^{-\lambda} (t-1)^{-\mu} \wp\left\{
\begin{matrix}
\lambda & \mu & \nu\\
\lambda' & \mu' & \nu'\\
\end{matrix}
\right\}
=
\wp\left\{
\begin{matrix}
0 & 0 & \nu + \lambda + \mu\\
\lambda' - \lambda & \mu' - \mu & \nu' + \lambda + \mu\\
\end{matrix}
\right\}
となる.そこで,特性指数の差  \alpha = \lambda' - \lambda, \beta = \beta' - \beta, \gamma = \nu' -\nu とおくと、

\displaystyle \quad
\wp\left\{
\begin{matrix}
0 & 0 & \rho\\
\alpha & \beta &\rho +  \gamma\\
\end{matrix}
\right\}
と書ける.ここで、フックスの関係式より, \rho = (1 - \alpha -\beta -\gamma)/2 と定まる.この形の解(つまり、 t = 0,1 の特性指数のうち一つは 0 となるもの)を持つ方程式はガウスの超幾何方程式である.また,特性指数の差  (\alpha, \beta, \gamma) で完全に特徴づけることができることも分かる.ただし,差を取るときの順序はどちらでもいいので, \alpha, \beta, \gamma のどれかに  (-1) を書けても同じ方程式を表してると思える.


さて,独立変数に一次分数変換をほどこすことで,特異点  0, 1, \infty は別の3点に移すことができる.特に, 0,1, \infty を位置を入れ替えてもよく,それは特性指数の差を入れ替えてもいいことを意味する.

基本操作

主結果の証明で使う性質を紹介する.証明は面倒であるが、特性指数が解の先頭項のべきを表していることを思い出せば,成り立つことは納得ができるものばかりである.

(命題)
 
\displaystyle \quad t^{s} \wp\left\{
\begin{matrix}
\lambda & \mu & \nu\\
\lambda' & \mu' & \nu'\\
\end{matrix}
\right\}
=
\wp\left\{
\begin{matrix}
\lambda +s& \mu & \nu -s\\
\lambda' +s& \mu' & \nu' -s\\
\end{matrix}
\right\} \\
\displaystyle \quad (t-1)^{s} \wp\left\{
\begin{matrix}
\lambda & \mu & \nu\\
\lambda' & \mu' & \nu'\\
\end{matrix}
\right\}
=
\wp\left\{
\begin{matrix}
\lambda & \mu +s& \nu -s\\
\lambda' & \mu' +s& \nu' -s\\
\end{matrix}
\right\} \\

この操作を
 
\displaystyle \quad \wp\left\{
\begin{matrix}
\lambda & \mu & \nu\\
\lambda' & \mu' & \nu'\\
\end{matrix}
\right\}
\left(\rightarrow^{\times t^{s} } \right)
\wp\left\{
\begin{matrix}
\lambda +s& \mu & \nu -s\\
\lambda' +s& \mu' & \nu' -s\\
\end{matrix}
\right\} \\
\displaystyle  \quad \wp\left\{
\begin{matrix}
\lambda & \mu & \nu\\
\lambda' & \mu' & \nu'\\
\end{matrix}
\right\}
\left( \rightarrow^{\times (t-1)^{s} }\right)
\wp\left\{
\begin{matrix}
\lambda & \mu +s& \nu -s\\
\lambda' & \mu' +s& \nu' -s\\
\end{matrix}
\right\} \\
のように書くことにする.

(命題)
 
\displaystyle \quad \frac{d}{dt} \wp\left\{
\begin{matrix}
0 & 0 & \rho\\
\alpha & \beta & \rho + \gamma\\
\end{matrix}
\right\}
=
 \wp\left\{
\begin{matrix}
0 & 0 & \rho + 1\\
\alpha - 1 & \beta - 1 & \rho + \gamma + 1\\
\end{matrix}
\right\}\\
\displaystyle \quad - t^2 \frac{d}{dt} \wp\left\{
\begin{matrix}
\rho & 0 & 0\\
\rho + \alpha & \beta & \gamma\\
\end{matrix}
\right\}
=
\wp\left\{
\begin{matrix}
\rho + 1 & 0 & 0\\
\rho + \alpha + 1 & \beta - 1 & \gamma - 1\\
\end{matrix}
\right\}

後者の公式は, t = 1/\tau とおいて  \displaystyle -t^2 \frac{d}{dt} = \frac{d}{d\tau} を思い出せば, 0, \infty を入れ替えて前者の公式を使ったものだと思える.

証明

(主結果)
特性指数の差が  (\alpha, \beta, \gamma) = (\alpha_1 + p, \beta_1 + q, \gamma_1 +r), p,q,r \in \mathbb{Z} と書けるとする.
 p+q+r が偶数ならば,特性指数の差が  (\alpha_1, \beta_1, \gamma_1) となる方程式に変換することができる.
さらに, \alpha_1, \beta_1, \gamma_1 のいずれかが  \frac{1}{2} ならば  p+q+r が奇数でも変換することができる.

(証明)
まず、特性指数の差に  (-1) をかけてもいいことから, p \geq 0 , q \geq 0, r \geq 0 としてもよい.また,特異点の位置を交換することで, p \geq q \geq r \geq 0 としてよい.
 
\displaystyle \qquad \wp\left\{
\begin{matrix}
0 & 0 & \rho\\
\alpha & \beta & \rho + \gamma\\
\end{matrix}
\right\} \\
\displaystyle \quad \left(\rightarrow^{\times t^{- \rho}} \right) \wp\left\{
\begin{matrix}
\rho & 0 & 0\\
\alpha + \rho & \beta & \gamma\\
\end{matrix}
\right\} \\
\displaystyle \quad
\left( \rightarrow^{\frac{d^r}{d \tau^r} } \right)
\wp\left\{
\begin{matrix}
\rho + r & 0 & 0\\
\alpha + \rho + r & \beta - r & \gamma - r\\
\end{matrix}
\right\} \\
\displaystyle \quad 
\left(\rightarrow^{ t^{-\rho - r} }\right)
 \wp\left\{
\begin{matrix}
0 & 0 & \rho + r\\
\alpha  & \beta - r & \gamma + \rho\\
\end{matrix}
\right\} \\
\displaystyle \quad
\left( \rightarrow^{\frac{d^m}{dt^m} } \right)
\wp\left\{
\begin{matrix}
0 & 0 & \rho + r + m\\
\alpha -m & \beta - r - m & \gamma + \rho + m\\
\end{matrix}
\right\} \\
\displaystyle \quad 
\left(\rightarrow^{ \times (t-1)^{-\beta + r + m } } \right)
\wp\left\{
\begin{matrix}
0 & -\beta + r + m & \rho + \beta\\
\alpha -m & 0 & \gamma + \rho + \beta - r\\
\end{matrix}
\right\} \\
\displaystyle \quad 
\left(\rightarrow^{\frac{d^n}{dt^n} } \right)
 \wp\left\{
\begin{matrix}
0 & 0 & \rho + \beta + n\\
\alpha -m - n & -\beta + r + m - n & \gamma + \rho + \beta - r + n\\
\end{matrix}
\right\} \\
\displaystyle \quad 
\left(\rightarrow^{\times (t-1)^{\beta - r - m + n} } \right)
 \wp\left\{
\begin{matrix}
0 & \beta - r - m + n & \rho +r + m\\
\alpha -m - n & 0 & \gamma + m + \rho\\
\end{matrix}
\right\}
以上により特性指数の差が  (\alpha, \beta, \gamma) から  (\alpha - m - n, \beta - r - m - n, \gamma - r) に移る.そこで,

\displaystyle \quad m = \frac{1}{2} (p + q - r) \\
\displaystyle \quad n = \frac{1}{2} (p- q + r)
とおけばいいが, m, n微分の回数だったので非負の整数でなければならない.まず, p \geq 0 , q \geq 0, r \geq 0 より非負であることが分かる.また, p + q+ r が偶数だったので,m,n が整数であることが分かる.以上により, (\alpha, \beta, \gamma) から  (\alpha_1, \beta_1, \gamma_1) へ変換できた.まとめるとここで行った変換は,
 \displaystyle
\quad \frac{d^n}{dt^n} (t-1)^{-\beta + r + m} \frac{d^m}{dt^m} t^{-\rho - r} \frac{d^r}{d\tau^r} t^\rho \wp\left\{
\begin{matrix}
0 & 0 & \rho\\
\alpha & \beta & \rho + \gamma\\
\end{matrix}
\right\} \\
\displaystyle \quad=  \wp\left\{
\begin{matrix}
0 & 0 & \rho +r + m\\
\alpha -m - n & \beta - r - m + n & \gamma + m + \rho\\
\end{matrix}
\right\}
という変換を行っている.

最後に, \alpha = 1/2 の場合で  p+q+r が奇数の場合を考える.
 
\displaystyle \qquad \wp\left\{
\begin{matrix}
0 & 0 & \rho\\
\frac{1}{2} & \beta & \rho + \gamma\\
\end{matrix}
\right\} \\
\displaystyle \quad \left( \rightarrow^{ \frac{d}{dt} } \right)
 \wp\left\{
\begin{matrix}
0 & 0 & \rho + 1\\
 - \frac{1}{2} & \beta - 1 & \rho + \gamma + 1\\
\end{matrix}
\right\} \\
\displaystyle \quad \left(\rightarrow^{\times t^{1/2} }\right) 
 \wp\left\{
\begin{matrix}
\frac{1}{2} & 0 & \rho + \frac{1}{2}\\
0 & \beta - 1 & \rho + \gamma + \frac{1}{2}\\
\end{matrix}
\right\}
すると特性指数の差は,(\alpha, \beta, \gamma) から  (\alpha, \beta - 1, \gamma) と移るので,これから見れば  p+q+r は偶数となり、同じ変換を行うことができる.\square

特異解のある方程式について


常微分方程式の一般解や特異解という用語は、ときどき教科書に説明があったりするものの曖昧なことが多いです。
微分代数的な定義は西岡『微分体の理論』やRitt, "Differential Algebra"などに書かれていますが、この定義は非常に抽象的で意味が分かりづらいです。Rittを読んで、何がやりたいか少し分かってきましたが、詳細を書くのは大変なので、今回は簡単な例を通して発想を初等的に説明します。

今回は

\quad \displaystyle \left( \frac{dy}{dx} \right)^2 - 4y = 0
を考えます。


(誤った解法)
まず、

\quad \displaystyle  \frac{dy}{dx} = 2 \sqrt{y}
として、

\quad \displaystyle  \frac{1}{\sqrt{y}}\frac{dy}{dx} = 2
とすれば、積分できることが分かる。

\quad \displaystyle \int \frac{1}{\sqrt{y}} dy = 2x + c\\
\quad \displaystyle 2\sqrt{y} = 2x + c
となるので、計算して定数を置きなおすと、

\quad \displaystyle y = (x + C)^2
となる。


この解法はいろいろダメですが、一番の問題なのは  y = (x + C)^2 以外の解  y=0 を見落としています。原因は  y=0 かもしれないのに両辺を \sqrt{y} で割ったところです。とは言え、最初に微分方程式の授業で求積法を習ったばかりだと、こういった計算をしてしまってもおかしくありません。定数に依存しない特別な解  y=0 が出てきた原因は、一階微分 y' に関して1次じゃないからです。このような微分方程式を非正規微分方程式というのでした。よく考えてみると、方程式を微分していけばいつか正規方程式の形にすることができます。そうやって解いてみましょう。


(解答)
与えられた方程式

\quad \displaystyle \left( \frac{dy}{dx} \right)^2 - 4y = 0
微分すると、

\quad \displaystyle y'y''-2y' = 0
つまり、

\quad \displaystyle y'(y''-2) = 0
となる。よって、解はy' = 0y'' = 2 を満たしている。
y' = 0のとき
解は  y=a と書けるが、方程式に代入すると  a=0 が分かる。よって、解  y=0 を得る。
y'' = 2のとき
解は y =x^2+ bx + c と書けるが、方程式に代入すると、

\quad \displaystyle (2x+b)^2 - 4(x^2 + bx + c) = 0
つまり、

\quad \displaystyle b^2 - 4c = 0
となる。よって、 y = x^2 + b x + b^2/4 = (x + b/2)^2 となり、定数を置き換えて  y=(x+C)^2 を得る。


この解法の勝因は、微分することで正規方程式に帰着できたことです。これらの解しかないこともはっきりしてます。


最後に、この解法の背景を説明します。結局、解は  y=0, y=(x+C)^2 と二つの"図形"に分けることができました。これは、方程式 \left( \frac{dy}{dx} \right)^2 - 4y = 0 が定める"解空間"が既約ではないことを表しています。方程式を微分することで  y'(y''-2) = 0 と解空間を分離することができました(まさに比喩じゃない因数分解)。Rittの本の定義では、このような分解をしたときに、ある一つの集合が「一般解」と呼ばれるものであり、特別な性質を満たす解を「特異解」と呼びます。一般解ではないものは特異解になりますが、一般解に特異解が含まれることもあります。今回では、 y'' = 2 が一般解を定めており、 y=0 という特異解は一般解に含まれず  y'=0 という部分に含まれます。ざっくりした説明は以上ですが、厳密にやるには「分解とはどういう意味か」、「一般解や特異解の厳密な定義はなんなのか」を考えることになります。「分解とは何か」に関してのヒントをいうと、代数幾何の既約分解を「微分代数的に」やるだけです。


(おまけ)
 \left( \frac{dy}{dx} \right)^2 - 4y^3 = 0 を考えてみます。解は  y=(x+C)^{-2} y=0 があります。Rittの定義によると、両方とも一般解であり、y=0 は特異解となります。すこし不思議な気がしますね。微分方程式微分すると  y' (y'' - 6y^2) = 0 となるので、二つの空間に分離できたように見えますが、 \left( \frac{dy}{dx} \right)^2 - 4y^3 = 0 y' = 0 の四則演算と微分から  y'' - 6y^2 = 0 が作れます。これは、もともと既約な一つの空間だったことを意味します。ここから、解はすべて一般解であることになります。実際、 y=(x+C)^{-2} C\rightarrow \infty すると  y=0 に近づくので、y = 0 が一般解なのはむしろ正しい気がします。このように、特異解が一般解に含まれるような状況もRittの定義ではうまく扱えるのです。

Picard-Vessiot拡大の存在証明

代数的なガロア理論におけるガロア拡大は,微分ガロア理論ではPicard-Vessiot拡大と呼ばれるものになります.特に拡大で定数体が変わらないことが重要なのですが,その部分の証明で普通の微分ガロア理論の本ではシュバレーの定理を用いることがほとんどです.つまり,代数幾何の道具を使うため,まず微分体Kを代数閉体として証明し,そうでない場合でも大丈夫なことをチェックします.ここで,代数閉体を仮定してシュバレーの定理を使うところも代数閉体の仮定を外すところもどちらの議論も少し複雑で分かった気になれません.なので,西岡『微分体の理論』に沿った方法で証明し,自分の中での納得感を上げることがこの記事の目的です.(西岡では万有拡大を使って議論するのですが,今回は万有拡大を登場させずに証明します.)

Picard-Vessiot拡大とPicard-Vessiot環

 K微分体とし,その定数体を  C と表す.以下では,定数体の標数 0 であることと,定数体が代数的閉体であることを基本的に仮定している.以下の微分方程式を考える:

\displaystyle \qquad \text{(E)}\quad  Y^{(n)} + \sum_{j=0}^{n-1} a_j Y^{(j)} = 0, \quad a_n = 1, a_j \in K \,(j=1, \dots, n)
微分体の拡大  L/K が方程式(E)のPicard-Vessiot拡大であるとは,以下の条件を満たすことをいう.

 (a) 定数体が等しい,つまり, C_L = C ;

 (b) (E)の解  y_1, \dots, y_n \in L C 上線形独立なものが存在する;

 (c)  L y_1, \dots, y_n により微分体として  K 上生成である.つまり, L = K\langle y_1, \dotsm y_n \rangle

この定義の(b)において, y_1, \dots, y_n C 上線形独立であることは,ロンスキアン  \mathrm{wr} (y_1, \dots, y_n) が非ゼロであることと同値であることは重要である.

もしPicard-Vessiot拡大が存在すれば, K 上の  L 微分同型写像のなす群が微分ガロア群になるのであったが,今回はPicard-Vessiot拡大の存在のみを議論する.そのために,Picard-Vessiot環を導入する.

微分R が方程式(E)のPicard-Vessiot環であるとは,以下の条件を満たすことをいう.

 (i)  R K微分拡大環である;

 (ii)  R は単純微分環である.つまり,R微分イデアルは自明なものしか存在しない;

 (iii) (E)の解  y_1, \dots, y_n \in R C 上線形独立なものが存在する;

 (iv)  R y_i^{(j)} ( i = 1, \dots, n,  j=0, \dots, n) とロンスキアンの逆元  \mathrm{wr} (y_1, \dots, y_n)^{-1} によって環として  K 上生成.つまり, R = K [ \{y_i^{(j)} \}, \mathrm{wr} (y_1, \dots, y_n)^{-1}]


Picard-Vessiot環は,単純微分環であることと解により環として有限生成であるところが,Picard-Vessiot体との違いである.

さて,Picard-Vessiot環が存在すれば,Picard-Vessiot体は簡単に構成できる.まず,零因子の集まりが微分イデアルとなるこてゃ簡単に分かるので,単純微分環であることからPicard-Vessiot環が整域になる.Picard-Vessiot環  R は単純微分環であることから,整域となることが分かる.よって, R の商体  L の定数体が C であることを示すことができれば, L/K は (E)のPicard-Vessiot拡大であることが分かる.定数体が変わらないことは以下の定理から分かる.

(定理)
K の定数体 C標数 0代数的閉体とする. R微分 K微分拡大環とする.R環として  K 上有限生成で,かつ, R が単純微分環ならば, R の商体  L に対して, C_L = C となる.

この定理は以下の補題により証明できる.

補題

F標数 0 の体,R= F[t_1, \dots, t_n ]  F 上有限生成な整域とする.
このとき,x \in RF 上超越的なら,(x-c)^{-1} \notin R となる  c \in \mathbb{Q} が存在する.

(定理の証明)x \in C_L をとる.このとき,I = \{a \in R \mid ax \in R\}微分イデアルとなる.x = q/pq, p \in R)と表示すれば,p\in I が分かるので,I\{0\} ではない.よって,単純微分環であることから, I = Rとなる. よって,x \in R となる.xK 上超越的と仮定すると補題により  (x - c)^{-1} \notin R となる  c \in \mathbb{Q} は存在する.しかし, (x-c)^{-1} は定数だから, (x-c)^{-1} \in C \subset R となり矛盾.よって, xK 上代数的である.よって, xC 上超越的となり,C代数的閉体だから  x \in C となる. \square

最終目標は補題の証明である.その前に,Picard-Vessiot環の構成法を説明する.

ちなみに,Picard-Vessiot拡大であることと,Picard-Vessiot環の商体で書けることは同値である.

(Remark)この補題と対応するものはMagid『Lectures on Differential Galois theory』では補題1.16にある.そこでもシュバレーの定理を用いて証明している.

Picard-Vessiot環の存在証明

方程式(E)のPicard-Vessiot環を構成する.まず, n^2 個の不定 Y_{i, j} ( i=1, \dots, n, j = 0, \dots n -1) を用意し,その微分

\displaystyle \qquad Y_{i, j}' = Y_{i, j+1} \qquad j = 0, \dots, n-2 \\
\displaystyle \qquad Y_{i, n-1}' = - \sum_{j=0}^{n-1} Y_{i, j}
と定める.すると, R_1 = K[\{Y_{i,j}, \mathrm{wr} (Y_{1,0}, \dots, Y_{n,0})^{-1}]  K 上環として有限生成で, (Y_{1,0}, \dots, Y_{n,0} C 上独立な解となる微分環となる.ここで, R_1 の極大微分イデアル J として, R = R_1/J とおけば, R_1 はPicard-Vessiot環となる.ここでのポイントは,もし,  K[\{Y_{i,j}] を考えたなら, \mathrm{wr} (Y_{1,0}, \dots, Y_{n,0}) が極大微分イデアルに入った場合,イデアルで割ったときに解が独立にはならなくなってしまうというところである.このような理由があるためあらかじめ  \mathrm{wr} (Y_{1,0}, \dots, Y_{n,0})^{-1} を添加することで,ロンスキアンを可逆にしておくのである.

ちなみに,一つの方程式に対して二つのPicard-Vessiot環があればそれらは微分同型であることも分かる.つまり,Picard-Vessiot環はこの意味で一意である.

また,Picard-Vessiot環の定義において,ロンスキアンの逆数で生成されているという仮定は必要がないようにも思えるが,ロンスキアン  \mathrm{w} が可逆でない場合  w で生成されるイデアルが非自明な微分イデアルとなる.よって単純微分環にするためには  \mathrm{w}^{-1} を加えておく必要がある.

補題の証明

少し準備をする. R を整域, K R の商体とする.このとき, R K付値環であるとは,全ての  x \in K に対して, x \in R または  x^{-1} \in R となることをいう.付値環は局所環になっている.

(命題1)
 K を体,AK の部分環で  P を極大イデアルに持つ局所環 A とする.このとき, K の付値環 R A \subset R かつ, R の極大イデアル  M A \cap M = P となるものが存在する.

(証明) A を含む  K の部分環  B 1 \notin PB となるものの全体を  \mathcal{S} とおく. A \in \mathcal{S} であり,ツォルンの補題の仮定を満たすことはすぐに分かるので, \mathcal{S} は極大元  R を持つ.1 \notin PR より, PR を含む R の極大イデアル  M が存在する.RM による局所化  R_M の極大イデアル  M R_M  1 を含まないので, 1 \notin PR \subset M R_M となり, R_M R を含む  \mathcal{S} の元である. R の極大性により.R_M = R だから R は局所環である. A \cap M P を含む  Aイデアルであり,P A の極大イデアルだから  A\cap M = P である.

最後に, RK の付値環であることを示す. x \in K x \notin R とする.R の極大性により, R[x] \notin \mathcal{S} だから, 1 \in P R[x] である.よって,

\displaystyle \qquad 1 = a_0 + a_1 x + \dots + a_n x^n, \quad a_j \in PR \subset M
とかける. 1 - a_0 \in R \setminus M だから  1-a_0 R の単元であり,

\displaystyle (\star) \quad 1 = b_1 x + \dots + b_n x^n, \quad b_j \in M
と書き直すことができる.このように書ける最小の  n を取る.もし, x \notin R ならば同様の議論により,

\displaystyle \qquad 1 = c_{1} x + \dots + c_m x^{-m}, \quad c_j \in M
と書ける最小の  m をとる. n \geq m ならば,

\displaystyle \qquad b_n x^n = b_n c_{1} x^{n-1} + \dots + b_n c_m x^{n-m}
となるので, (\star) 式の  b_n x^n を消せば, n の最小性に矛盾する. n < m の場合も同様である.よって, x \in R である.よって, R K の付値環である.  \square

(Remark)この命題はアティヤ・マクドナルド『可換代数入門』の5章の演習問題27と関係する命題である.

(系)
 K を体,AK の部分環で  PA の素イデアルとする.このとき, K の付値環 R A \subset R かつ, R の極大イデアル  M A \cap M = P となるものが存在する.

(証明)A P による局所化  A_P に対して命題1を用いると, A_P \subset R かつ  A_P \cap M = P A_P となる付値環  R が存在する. A \cap M = P が簡単に分かるので証明が終わる. \square

この系を用いて補題を証明する.

補題

F標数 0 の体,R= F[t_1, \dots, t_n ]  F 上有限生成な整域とする.
このとき,x \in RF 上超越的なら,(x-c)^{-1} \notin R となる  c \in \mathbb{Q} が存在する.

(証明) x, x_1, \dots, x_m R の商体  KF 上の超越基底とする. E = F(x_1, \dots, x_m), R' = E [ t_1, \dots, t_n] とおく. x E 上でも超越的である. c \in \mathbb{Q} とする. (x-c) E [ x ]  E [ x ] の素イデアルだから,系により, K の付値環  S とその極大イデアル  M E [ x ] \subset S かつ  E [ x ] \cap M = (x-c) E [ x ] となるものが存在する.ここで,  (x-c)^{-1} \in R \subset R' とする.さらに,全ての  t_1, \dots, t_n S に含まれるとすると, R' \subset RS \subset S となり  (x-c)^{-1} \in S.よって, 1 = (x-c) (x-c)^{-1} \in M となり矛盾.したがって, t_j \notin S となる  j が存在する.S が付値環なので, t_j^{-1} \in M である.ところで  t_j E [ x ] 上代数的だから,
 
\displaystyle \qquad a^{(j)}_d (x) t_j^d + \dots + a^{(j)}_0 (x) = 0, \quad a^{(j)}_i (x) \in E [x ], a_d (x) \neq 0
となる.
 
\displaystyle \qquad a^{(j)}_{d_j} (x)= - a^{(j)}_{d_j-1} t_j^{-1} + \dots - a^{(j)}_0 (x) t_j^{-d} , \quad a^{(j)}_i (x) \in E [x ]
なので, a^{(j)}_{d_j} (x) \in E [x ] \cap M = (x-c) E [x ] となる.つまり, a^{(j)}_{d_j} (c) = 0 となる.

以上をまとめると, c \in \mathbb{Q} に対して, (x-c)^{-1} \in R ならばある j に対して, a^{(j)}_{d_j} (c) = 0 となる.しかし,  a^{(1)}_{d_1} (x)=0, \dots,  a^{(n)}_{d_n} (x)=0 のいずれかの解となるものは有限個しかないので, (x - c)^{-1} \notin R となる  c \in \mathbb{Q} が存在する(無限個存在することも分かる). \square

おまけ

途中で,微分体の拡大  L/ K に対して, c \in C_L K 上代数的ならば  C_K 上代数的であることを使った.これは簡単に分かる. y_1, \dots y_n \in KC_K 上一次独立であることは,ロンスキアンが非零であることと同値だから  C_L 上一次独立であることと同値である.よって, K C_L C_K 上線形無関連である.よって, K C_LC_K 上代数的無関連である.よって, C_K 上代数的独立な  C_L の元は  K 上でも代数的独立である.対偶をとると, K 上代数的な  C_L の元は  C_K 上でも代数的である.

有理関数体と付値

一変数代数関数体の理論は非常に有用であるものの,定義や定理のイメージを持つことが難しいと思います.今回は複素係数の有理関数環 \mathbb{C} (x) の場合に考えることで,それを元に一変数代数関数体で何を議論するのかというのを紹介しようと思います.

普通に数学をやっている人は「リーマン・ロッホ空間」の節から読んでいただければと思います.

有理関数体の性質

複素係数の有理関数体を復習する.有理関数体  \mathbb{C} (x) とは

\displaystyle \qquad \mathbb{C} (x) :=\left\{ \frac{p(x)}{q(x)} \mid p(x), q(x) \in \mathbb{C} [x ], p(x), q(x) \mathrm{ は互いに素}  \right\}
である.係数を複素数体  \mathbb{C} としているので,多項式は一次式の積に因数分解できる.よって有理関数体は

\displaystyle \qquad \mathbb{C} (x) =\left\{ c \frac{\prod_i (x-a_i)}{\prod_j (x-b_j) } \mid a_i, b_j, c \in \mathbb{C} [x ], a_i \neq b_j  \right\}
と書くことができる.

有理関数はローラン展開できる.つまり,有理関数 f(x) は任意の  \alpha \in \mathbb{C} に対して,

\displaystyle \qquad f(x) = \sum_{j=k}^{\infty} a_j (x- \alpha)^j, \quad a_k \neq 0
と展開することができる.このとき, k < 0 ならば,x = \alphaf(x) の極であるといい,-k を極の位数という.また,

\displaystyle \qquad f(x) = \sum_{j=k}^\infty a_j \left(\frac{1}{x}\right)^j , \quad a_k \neq 0 \\
\displaystyle \qquad (\text{または } f(x) = \sum_{j=k}^\infty a_j x^{-j})
と展開することもできる.つまり,負冪には無限に続くが,正のべきでは有限で打ち切れる展開である.これを  x=\infty でのローラン展開という.

このように,\mathbb{C}\infty に対して付値を考えることができるから,まとめて  \mathbb{P} := \mathbb{C} \cup \{\infty\} と書くことにする.

もっと馴染みのある類似のものは零点である. f(x) = (x-\alpha)^k g(x), g(\alpha) \neq 0, k \geq 1 と書けるとき, x= \alphak 位の零点という.

本質的に重要なのが以下の命題である.

(命題)
有理関数の零点と極は有限である.

付値

代数関数体で重要な付値を説明する.
 x=\alpha での付値とは関数  v_\alpha \colon \mathbb{C} (x) \setminus \{0\} \to \mathbb{Z} で以下のように定義される:

 f(x) x=\alpha でのローラン展開 \sum_{j = k}^{\infty} a_j (x-\alpha)^j としたとき,
 
\displaystyle \qquad v_\alpha (f) := \mathrm{min} \{ j \mid a_j \neq 0\}
また,無限大での位数も無限大でのローラン展開で同様に定義できるが, f(x) = \frac{p(x)}{q(x)} としたときは

\displaystyle \qquad v_\infty (f) := \mathrm{def} (q(x) ) - \mathrm{deg} (p(x) )
と書くこともできる.定数  0 に対する付値は  v(0) = \infty と決めておくと便利である.

付値には以下の公式が成り立つ.

(公式)

\bullet  v(f(x) + g(x) ) \geq \min \{v(f(x) ), v(g(x) ) \}

 \bullet  v(f(x) g(x) ) = v(f(x) ) + v(g(x) )

これはローラン展開を考えればすぐに分かる.また, v(f(x) ) \neq v(g(x) ) ならば, v(f(x) + g(x) ) = \min \{v(f(x) ), v(g(x) )\} もすぐに分かる.

有理関数の零点と極は有限であったので, v_\alpha (f) \neq 0 となる  \alpha の個数は有限である.

リーマン・ロッホ空間

さて,代数関数体の理論とは,付値の情報から関数や関数の集まりがなす環を調べるものと言っていいだろう.このように考えたときに,種数などの概念が自然に現れるということを有理関数体の場合に説明していく.

有理関数体  K=\mathbb{C} (x) に対しては,点  \alpha \in \mathbb{P}:=\mathbb{C} \cup \{\infty\} に対して,付値  v_\alpha \colon K \to \mathbb{Z} \cup \{\infty\} が定まるのであった.ある関数  f \in K に対する付値の情報を表すものとして因子(Divisor)を導入する.

 \alpha \in \mathbb{P} ごとに記号  P_\alpha を用意する. f \in K\setminus \{0\} の因子  (f)

\displaystyle \qquad (f) := \sum_{\alpha \in \mathbb{P}} v_\alpha (f) P_\alpha
と定める.有理関数の零点や極の個数は有限なので,ここでの足し算も有限である.一般に,有限和

\displaystyle \qquad A = \sum_{\alpha \in \mathbb{P}} n_\alpha P_\alpha, \quad n_\alpha \in \mathbb{Z}
 K因子と呼ぶ.また,この因子の付値も  v_\alpha (A) := n_\alpha と定めることにする.ここで有限和と言っているのは, n_\alpha \neq 0 となる  \alpha が有限個しかないという意味であり.この時点で和の演算を考えているわけではない.(数学的に表現するなら因子は  \mathbb{Z}^{\mathbb{P} } の元で,有限個を除いた全ての成分が  0 のものである.)

二つの因子  A, B の和を

\displaystyle \qquad A+B := \sum_\alpha (v_\alpha (A) + v_\alpha (B)) P_\alpha
と定めれば,これが因子になることや,全ての因子の集まりがアーベル群になることは明らかである.また, A\leq B を,全ての \alpha \in \mathbb{P} に対して  v_\alpha (A) \leq v_\alpha (B) が成り立つこととする.最後に,因子の次数を

\displaystyle \qquad \mathrm{deg} A := \sum_\alpha v_\alpha (A) \in \mathbb{Z}
と定める.

さて,最初に述べたように,付値が関数をどのように定めるか,つまり,因子が関数をどのように定めるかという問題に入ろう.

最初に簡単なところから考えよう, \mathbb{C} \setminus \{0\} の元の因子が  0 であることは明らかであるが,逆に因子が  0 となるのは,定数のときだけである.これは,リーマン球面におけるリュービルの定理である.

一般に,「因子が A となる関数 f \in K はどのようなものか」という問題に答えられればいいのであるが,それは少し難しい(特に有理関数体より一般化したときには難しい).そこで以下の空間を考える.

(リーマン・ロッホ空間)
K の因子 A に対して,
 \displaystyle \qquad
\mathcal{L} (A) := \{ f \in K \mid (f) \geq -A\} \cup \{0\}
 Aリーマン・ロッホ空間と呼ぶ.

付値で書き直せば, f \in \mathcal{L} (A) とは  v_\alpha (f) \geq - v_\alpha (A) ということである.

リーマン・ロッホ空間の意味を少しずつ明らかにしていこう.因子  A

\displaystyle \qquad A = \sum_i n_i P_{a_i} - \sum_j m_j P_{b_j}, \quad n_i, m_j > 0
と正と負の付値に分けたときに, f \in \mathcal{L} (A) とは,

\quad \bullet  x = a_i f の高々 n_i 位 の極である. x = a_j 以外は極ではない.

\quad \bullet  x = b_jf の少なくとも  m_j 位の零点である.

を意味することは明らかである.

例えば, A = P_0 ならば, \frac{1}{x} \in \mathcal{L} (P_0) のようになる.しかし,x \infty 1 位の極を持つため, x \notin \mathcal{L} (P_0) である.なので, A = P_0 + P_\infty を考えれば, \frac{1}{x}, 1, x \in \mathcal{L} (P_0 + P_\infty) となっている.

以下のことは簡単に分かる.

(命題)

 \bullet リーマン・ロッホ空間は \mathbb{C} ベクトル空間である.

 \bullet 因子  A, B に対して, A \leq B  \iff  \mathcal{L}(A) \leq \mathcal{L} (B)

 \bullet \mathcal{L} (0) = \mathbb{C}

 \bullet  A < 0 ならば  \mathcal{L} (A) = \{0\}

大事なのは以下の定理である.

(定理)
有理関数体  K= \mathbb{C} (x) の因子  A に対して,

\displaystyle \qquad \mathrm{dim}_\mathbb{C} \mathcal{L} (A) = 1 + \mathrm{deg} (A)

(証明)因子  A
 
\displaystyle \qquad A = \sum_i n_i P_{a_i} - \sum_j m_j P_{b_j} + s P_\infty, \quad n_i, m_j > 0
と書けたとする.このとき, f \in \mathcal{L} (A)
 
\displaystyle \qquad 
f(x) = \frac{\prod_j (x-b_j)^{m_j} }{\prod_i (x-a_i)^{n_i} } P(x)
と書ける.ここで, P(x)多項式である.無限大での付値を計算すると,
 
\displaystyle \qquad v_\infty (y) = -\mathrm{deg} (P(x) ) - \sum_j m_j + \sum_i n_i \geq -s
である.よって,

\displaystyle \qquad \mathrm{deg} (P(x) ) \leq \sum_i n_i - \sum_j m_j + s = \mathrm{deg} (A)
となる.  \mathrm{deg} (P(x) ) \leq \mathrm{deg}(A) となる多項式  P(x)0 の集まりは  1 + \mathrm{deg}(A) 次元ベクトル空間となる.これは  \mathcal{L} (A) 1 + \mathrm{deg}(A) 次元ベクトル空間であることを意味する. \square

応用(部分分数分解)

リーマン・ロッホ空間の応用として,部分分数空間を考えよう.

(部分分数分解)
 P(x), Q(x) を互いに素で  \mathrm{deg} P(x) \leq \mathrm{deg} Q(x) となる多項式とする.

 Q(x) x=a_i, i=1, \dots, k n_i 次の零点を持っていたとすると,P(x)/Q(x) 1/(x-a_i)^j  ( j \leq n_i, i = 1, \dots, k) 1 の線形結合で書ける.

(証明) P(x)/ Q(x) の因子が

\displaystyle \qquad A := \left( \frac{P(x)}{Q(x)} \right) = \sum_i n_i P_{a_i} - \sum_j m_j P_{b_j} + s P_{\infty}, \quad m_j > 0
と書けたとする.  \mathrm{deg} P(x) \leq \mathrm{deg} Q(x) の仮定は, s \geq 0 を意味する.よって, B = \sum_i n_i P_{a_i} とおけば, A \leq B であり, P(x)/ Q(x) \in \mathcal{L} (A) \subset \mathcal{L} (B) となる.
 1/(x-a_i)^j  ( j \leq n_i, i = 1, \dots, k) 1 は一次独立かつ  \mathcal{L} (B) の元であり,定理より  \mathcal{L} (B) \mathrm{deg} (B) + 1 = \sum_i n_i + 1 次元であるから, 1/(x-a_i)^j  ( j \leq n_i, i = 1, \dots, k) 1 \mathcal{L} (B) の基底であることが分かる. \square

無限大での議論をうまくやって多項式の基底も加えれば, \mathrm{deg} P(x) \leq \mathrm{deg} Q(x) の仮定をのぞけることは想像がつくだろう.

どのように一般化されるか

今回は有理関数体に対して議論したが,これを一般化するのが代数関数体の理論である.まず,一変数代数関数体を定義しよう.

(一変数代数関数体)
 K が体  C 上の一変数代数関数体とは, K C 上の超越次数が 1 の有限生成体である.
つまり, C 上超越的な元  y \in K が存在して, K C(y) 上有限次となるもののことである.

有理関数の場合と同様に,一変数代数関数体には  C \cup \{\infty\} ごとに付値が定まる.しかし,有理関数とは違って,それ以外にも付値と呼べるものが存在することがある.ここで発想の転換をおこない,付値の集まりを点とみなし  \mathbb{P} と書くことにする.なので,一般には, C \cup \{\infty\} \subset \mathbb{P} となる.点  \alpha \in \mathbb{P} に対応する付値を  v_\alpha と書くことにする.

有理関数体の場合と同様に,一変数代数関数体の元に対しても,極と零点の個数は有限となる.つまり, y \in K に対して, v_\alpha (y) \neq 0 となる  \alpha \in \mathbb{P} の個数は有限である.よって,因子やリーマン・ロッホ空間も同じように定義することができる.さらには,リーマン・ロッホ空間の次元が有限となるというところまで同じである.

違いが出てくるのは,リーマン・ロッホ空間の次元である.一般の一変数代数関数体の場合には以下が成り立つ.

(定理)
 C 上の一変数代数関数体  K= \mathbb{C} (x) の因子  A に対して,

\displaystyle \qquad \mathrm{dim}_C \mathcal{L} (A) \leq 1 + \mathrm{deg} (A)
となる.

重要なのは,ここで等号が成り立つとは限らないところである.そこで, \mathrm{dim}_C \mathcal{L} (A) 1 + \mathrm{deg} (A) の差の最大値を種数と呼ぶのである.

(定義)
一変数代数関数体  K種数  g を以下で定義する.

\displaystyle \qquad g:=\mathrm{max} (1 + \mathrm{deg} (A) - \mathrm{dim}_C \mathcal{L} (A) )

例えば,有理関数体の種数が  0 である.種数  1 の場合はおおむね楕円関数体に対応する.

このあたりから,代数関数体の理論の本論が始まっていく.リーマン・ロッホ空間の次元が一般には分からないことから,

 \qquad\bullet いつ  \mathrm{dim}_L \mathcal{L} (A) = 1 + \mathrm{deg} (A) となるか(or ならないか)

が問題になる.これが解決できた場合には,

 \qquad\bullet  \mathcal{L} (A) を具体的に求めよ.(例えば基底を求める)

なども重要な問題となる.また,一変数代数関数体の有限次拡大も一変数代数関数体となるため,拡大でどのような変化が起こるかが問題になる.つまり,

 \qquad\bullet 有限次拡大で付値がどのように変化するか

というのも問題となってくる.もし代数関数体の本を読む場合,今回紹介した有理関数体で成り立つ性質が一変数代数関数体で成り立つこと(例えば,リーマン・ロッホ空間が有限次元など)が説明されるだろう.つまり,

 \qquad \bullet 有理関数体で成り立つことが一変数代数関数体でも成り立つか

というのが代数関数体の理論の本の最初で説明されていることである.

以上のことを念頭におけば,代数関数体の本を読む上で何をしたいかというのが,かなりイメージできるのかと思う.

BCH公式をMould解析で証明する

指数関数の公式 e^a e^b = e^{a+b} がありますが,行列のように  a,b が可換でないときにはこの公式は成り立ちません. e^a e^b がどのようになるかを教えてくれるのがBaker–Campbell–Hausdorffの公式(BCH公式)です.(正確には,式を陽に書き下したディンキンの公式を扱います.)証明はかなり難しいです.

一方,Mould解析というÉcalleが開発した理論があります.Mould解析では組み合わせ論的にややこしい式変形をうまく扱うことができるMould展開を導入します.このMould解析を使えば,BCH公式も簡単に証明することができます.(そのぶんMould解析の公式の証明は難しいです.)Mould解析は多重ゼータ値などにも応用することができます.BCH公式の証明を通してMould解析を親しむというのがこの記事の目的となります.

このような事情から,BCH公式の証明は簡単になるぶん,Mould解析を理解するというところは難しいです.BCHを示すことだけが目的ではトータルで簡単になるわけではないことに注意してください.

また,Mould解析を理解するためには形式ベキ級数の理論を勉強しておくと良いでしょう.議論も非常に似ているからです.

この記事は以下の論文を参考にしています.この論文ではディンキン公式以外の公式も証明しています.
Lie, Sauzin, Sun, "The Baker-Campbell-Hausdorff formula via mould calculus"

また,本記事では公式や定義に独自の名前をつけているものがあるので注意してください.

BCH公式(ディンキン公式)の復習

 \mathcal{A} を体  k 上の非可換代数単位元を持つものとする.このとき, X, Y \in \mathcal{A} に対して, e^X e^Y がどのようになるかを考えていく.ただし,このままだと級数の収束性が問題になることも多いので,変数  t を導入して, e^{tX} e^{tY} を考えることにする.つまり,形式ベキ級数  \mathcal{A} [[t ]] で考えることになる.

 e^{tX} e^{tY} = e^Z と書いたときの  Z を求めたいわけなので, \log (e^{tX} e^{tY}) を計算していくことになる.結論を言うと,
\displaystyle
\qquad \log (e^{tX} e^{tY}) = t (X + Y) + \frac{t^2}{2} [ X,Y] + \frac{t^3}{12} ([X , [X, Y] + [Y, [Y, X] ]) - \dots
のようになり,リー括弧  [X, Y] := XY - YX = \mathrm{ad}_X Y が高次項に現れ, X^2 Y のような生の積が現れない形で書けることが知られている.これをBCH公式と呼ぶこともある.

さて,全ての高次項を陽に表した公式としてディンキンの公式が知られている.
 \mathbb{N} 0 以上の整数, \mathbb{N}^* 1 以上の整数とする.

(ディンキンの公式)

\displaystyle \qquad \log(e^{tX} e^{tY} ) = \sum \frac{(-1)^k}{k} \frac{t^\sigma}{\sigma} \frac{[ X^{p_1} X^{q_1} \cdots X^{p_k} X^{q_k}]}{p_1! q_1!  \cdots p_k! q_k!}
ここで,和は全ての  k \in \mathbb{N}^* (p_1, q_1), \dots, (p_k, q_k) \in \mathbb{N} \times \mathbb{N} \setminus \{(0,0)\} を動くとし, \sigma = p_1 + q_1 + \dots + p_k + q_k であり,

\displaystyle
\qquad  [ X^{p_1} X^{q_1} \cdots X^{p_k} X^{q_k}] = \left\{ 
\begin{array}{}
\mathrm{ad}_X^{p_1} \mathrm{ad}_Y^{q_1} \cdots \mathrm{ad}_X^{p_k} \mathrm{ad}_Y^{q_k - 1} Y & (q_k \geq 1) \\\
\mathrm{ad}_X^{p_1} \mathrm{ad}_Y^{q_1} \cdots \mathrm{ad}_X^{p_k - 1} X & ( q_k = 0)
\end{array}
\right.
と定める.

ディンキンの公式は見ただけでは分からないので,手で計算して確かめてみよ.また, [ X^{p_1} X^{q_1} \cdots X^{p_k} X^{q_k}] の定義が分かりにくいが,別の表現を採用しているものもあるので,分からなければ適当に調べよ.例えばWikipediaでは少し違う表現をしている.

今回の目標はこのディンキンの公式を示すことである.この公式を示すためにまずMould解析を説明する.

Mould解析を全く知らない人は,まずディンキン公式の証明の式変形だけざっと目を通し,どのような議論をするかを確認することをオススメする.

Mould解析

ワード,mould,comould

ワード

まず一般的な定義をする.空ではない集合  \mathcal{W} を固定しアルファベットと呼ぶ.アルファベットとして有限集合や  \mathbb{N} を取ることが多い.アルファベット  \mathcal{W} の有限列の集合  \underline{\mathcal{W}}ワードと呼ぶ.つまり,
 \displaystyle
\qquad \underline{\mathcal{W}} := \{ \underline{n} = n_1 \cdots n_r \mid r \in \mathbb{N}, n_1, \dots, n_r \in \mathcal{W} \}
である.式でアルファベットとワードを見違えがちなので,アルファベットの元は  n,ワードの元は  \underline{n} とアンダーラインで必ず区別するようにする.ワード  \underline{n} の長さを  r(\underline{n}) と表すことにする.注意としては,空集合  \emptyset もワードであり,その長さは  0 である.

記法として,ワード \underline{a} の後に  \underline{b} が続くワードを  \underline{a} \underline{b} と表すことにする.また,アルファベット ak 個続くワードを  a^k と表すことにする.

mould

次にmouldを導入する.体 k とアルファベット  \mathcal{W} を固定する.mouldとは,ワード \underline{\mathcal{W}} から  k への写像のことである.つまり,mould のなす集合とは  k^\underline{\mathcal{W}} である.mould  M \underline{n} を代入したものを  M^{\underline{n} } と表す.

BCH公式を考えるときには  k \in \mathbb{Q} とし,mouldは公式の係数の出現の仕方を表すことになる.

さらに,mould  M, N の積 M \times N を以下で定義する.

\displaystyle \qquad (M\times N)^\underline{n} := \sum_{\underline{n} = \underline{a} \underline{b}} M^\underline{a} N^\underline{b}
少し分かりづらいので例を挙げておくと, \underline{n} の長さが  1 \underline{n} = a と書けるときは

\displaystyle \qquad (M\times N)^\underline{n} =  (M\times N)^a = M^\emptyset N^a + M^a N^\emptyset
であり, \underline{n} の長さが  2 \underline{n} = ab と書けるときは

\displaystyle \qquad (M\times N)^\underline{n} =  (M\times N)^{ab} = M^\emptyset N^{ab} + M^a N^b + M^{ab} N^\emptyset
となる. k 個の M の積  M \times \cdots \times M M^{\times k} と表すことにする.この演算  \times により,mouldの集合  k^\underline{\mathcal{W}} には  k 代数の構造が定まる.mould \mathbb{1}

\displaystyle
\qquad
\mathbb{1}^{\underline{n}}
= \left\{ 
\begin{array}{}
1 & ( \underline{n} = \emptyset ) \\\
0 & ( r(\underline{n}) \geq 1)
\end{array}
\right.
と定めれば,\mathbb{1} k^\underline{\mathcal{W}}単位元となる.

comould

k 代数 \mathcal{A} とアルファベット  \mathcal{W} を固定する.アルファベット  n \in \mathcal{W} に対して,\mathcal{A} [ [ t ] ] の元  B_n \in  \mathcal{A} [ [ t ] ] を固定しておく.このとき, B_n に定数項がないと仮定しておく.つまり, t に関して位数が 1 以上,つまり,  \mathop{ord} B_n \geq 1 と仮定する.さて,comouldとは,以下で定める  \mathcal{W} から \mathcal{A} [ [ t ] ] への写像  B である:
 
\displaystyle \qquad B_\emptyset = 1_{\mathcal{A}} \\
\displaystyle \qquad B_{n_1 \dots n_r} = B_{n_1} \cdots B_{n_r}

BCH公式を扱うときには,\mathcal{A} は行列を意味することになる.つまり,comouldは X, Y の出現の仕方を表す.

また,今回は \mathcal{A} ではなく \mathcal{A} [ [ t ] ] としたが,これはフィルター付き代数を考えることに対応し,これにより無限級数を考えるとき無限和が現れなくなる.

指数と対数

mould  M の位数を  M^{\underline{n}} \neq 0 となる最小の長さ  r(\underline{n}) とし, \mathop{ord} M と表す.簡単な計算から,

\displaystyle \qquad \mathop{ord} (M \times N) \geq \mathop{ord} M + \mathop{ord} N
が分かる.よって,位数が 1 以上のとき,つまり, M^\emptyset = 0 のとき,

\displaystyle \qquad \mathop{ord} (M^{\times k}) \geq k
となる.これにより, M^\emptyset = 0 のmould  M に対しては指数と対数を定めることができる:

\displaystyle \qquad e^M := \sum_{k \in \mathbb{N}} \frac{1}{k!} M^{\times k} \\
\displaystyle \qquad \log ( \mathbb{1} + M) := \sum_{k \in \mathbb{N}^*} \frac{(-1)^{k-1}}{k} M^{\times k}
となる.これでは無限和が出てきて定義がうまくいかないように見えるかもしれないが, M^\emptyset = 0 の仮定により,任意の  \underline{n} に対して, (e^M)^{\underline{n}} (\log ( \mathbb{1} + M) )^{\underline{n}} に現れる非ゼロの項は有限項しかない.

ちなみに, M^\emptyset = 1 の場合の場合には対数  \log M とは

\displaystyle \qquad \log ( M) = \sum_{k \in \mathbb{N}^*} \frac{(-1)^{k-1}}{k} (M - \mathbb{1})^{\times k}
のことを意味することになる.

形式ベキ級数の場合と同様に,

\displaystyle \qquad \log e^M = M
が証明できるが,ここに現れる積  \times は非可換なので,計算には注意が必要である.

同様に,  \mathcal{A} [[t]] に対しても指数と対数が定義できる.ここで,単項式 t^k の係数の計算には有限和しか出ないため,無限和の問題は起こらない.(これは形式ベキ級数の理論の枠組みで解決できる話である.)

mould展開

さて,mould解析においても最も重要なmould展開を導入します.mould M に対して,

\displaystyle \qquad MB := \sum_{\underline{n} \in \underline{\mathcal{W}}} M^{\underline{n}} B_{\underline{n}} \in \mathcal{A} [ [ t ]]
と定める. \mathcal{A} [ [ t ]] の元をあるmould  M を用いて  MB と表示することを,mould展開と呼ぶ.

簡単ではあるが,以下の公式は非常に重要である.

(結合公式)
mould  M, N に対して以下が成り立つ.

\displaystyle \qquad (M \times N) B = (MB) (NB)
特に,

\displaystyle \qquad (M^{\times k}) B = (MB)^k

この公式により, M^\emptyset = 0 となるmouldに対して以下が成り立つ.

\displaystyle \qquad e^{M} B = e^{MB} \\
\displaystyle \qquad (\log ({\mathbb{1} + M}) ) B = \log ( ({\mathbb{1} + M}) B)

シャッフル数

さて,一見関係なさそうなシャッフル数を導入する.私も最初イメージがつかなかったので,少しずつ説明する.

トランプを二つの山 A, B に分けた状況を想像しよう.そのとき,A を左手,  B を右手に持ち,机の上でパタパタと混ぜるシャフッルの仕方を想像しよう.これをリフルシャッフルというらしい.イメージできない方は調べて欲しい.このとき, A B は混ざるが,A のカード同士の順番と  B のカードの順番は保存されている.このようなシャッフルの仕方の場合の数を考える.

もう少し数学的に説明する.一般の並べ替えは,対称群  S_r の元  \sigma により,

\displaystyle \qquad \underline{n} = n_1 \cdots n_r \mapsto   \underline{n}^\sigma = n_{\sigma(1)} \cdots n_{\sigma(r)}
と定まる.今は,二つの組みをそれぞれの順序を保ったままシャッフルすることを考えることである.
長さ  r のワード  \underline{n} \underline{a} \underline{b}シャッフルであるとは,ある置換  \sigma \in S_r が存在して, \ell = r(\underline{a}) として,

\displaystyle \qquad \sigma(1) < \dots < \sigma(\ell), \quad \sigma(\ell + 1) < \dots < \sigma(r)
かつ
 
\displaystyle \qquad \underline{a} = n_{\sigma(1)}\dots n_{\sigma(\ell)}, \quad \underline{b} = n_{\sigma(\ell + 1)}\dots n_{\sigma(r)}
が成り立つことである.このような置換  \sigma \in S_r の個数をシャッフル数と呼び, \mathrm{sh}\, (\underline{a}, \underline{b}; \underline{n}) と表すことにする.

ワード  \underline{a}, \underline{b} の中に同じアルファベットがなければ,トランプのシャッフルを考えれば分かるように, \underline{a}, \underline{b} のシャッフル  \underline{n} のシャッフル数は  \mathrm{sh}\, (\underline{a}, \underline{b}; \underline{n}) = 1 である.しかし,アルファベットに重複がある場合はややこしい.例えば,4 つのアルファベット  a, b, c, d \in \mathcal{W} があるとき,

\displaystyle \qquad \mathrm{sh}\, (abc, bd; abdcb) = 0,\\
\displaystyle \qquad \mathrm{sh}\, (abc, bd; babdc) = 1, \\
\displaystyle \qquad \mathrm{sh}\, (abc, bd; abbdc ) = 2
のようになる.

BCH公式を証明する上でシャッフル数の具体的な値を使うことはないが,補題を証明するときに以下の関係式が必要となる.

(シャッフル数の公式)

\displaystyle \qquad \mathrm{sh}\, (\underline{a}, \underline{b}; \underline{n_1} \underline{n_2})=\sum_{\underline{a} = \underline{a_1}\underline{a_2},\, \underline{b} = \underline{b_1}\underline{b_2} }
\mathrm{sh}\, (\underline{a_1}, \underline{b_1}; \underline{n_1} )\mathrm{sh}\, (\underline{a_2}, \underline{b_2}; \underline{n_2} )

証明は最後の節で行う.

アルターナルとシンメトラル

mould解析の便利な公式は,以下で紹介する概念アルターナルとシンメトラルによって実現されていると言える.

アルターナル)
mould  Mアルターナルであるとは, M^\emptyset = 0 であり,空でないワード  \underline{a}, \underline{b} に対して,

\displaystyle
\qquad \sum_{\underline{n} \in \underline{\mathcal{W} } } \mathrm{sh} (\underline{a}, \underline{b}; \underline{n}) M^{\underline{n}} = 0
が成り立つことをいう.

(シンメトラル)
mould  Mシンメトラルであるとは, M^\emptyset = 1 であり,任意のワード  \underline{a}, \underline{b} に対して,

\displaystyle
\qquad \sum_{\underline{n} \in \underline{\mathcal{W} } } \mathrm{sh} (\underline{a}, \underline{b}; \underline{n}) M^{\underline{n}} = M^{\underline{a}} M^{\underline{b}}
が成り立つことをいう.

以下の補題が重要である.

補題

 \bullet シンメトラルなmouldの積はシンメトラルである.

 \bullet アルターナルなmouldの指数はシンメトラルである.

 \bullet シンメトラルなmouldの対数はアルターナルである.

証明はそれほど簡単ではない.dimouldを導入すると証明が簡単になるので,最後の節で付録として与えることにする.ちなみに,シンメトラルの積がシンメトラルであることは,シャッフル数の公式から簡単に証明することができるので,確かめてみよ.

Lie-comould

ここまでの議論だけでは,リー括弧が扱えていない.BCH公式とは展開の中の積がリー括弧だけになるというのがポイントである.そのために,comouldのリー括弧バージョンであるLie-mouldを導入する.Lie-comouldとはワードから  \mathcal{A} [ [t ] ] への写像  B_{[\underline{n} ]} であり,

\displaystyle \qquad B_{[\emptyset ]} = 0 \\
\displaystyle \qquad B_{[n_1 \cdots n_r ]} = \mathrm{ad}_{B_{n_1}} \cdots  \mathrm{ad}_{B_{n_{r-1} } }  B_{n_1}
と定めたものである.

mould展開のLie括弧バージョンであるLie-mould展開を以下で定める.

\displaystyle \qquad M [ B ] = \sum_{\underline{n} \in \underline{\mathcal{W} } \setminus \emptyset } \frac{1}{r (\underline{n} )} M^{\underline{n} } B_{[ \underline{n} ] }

本質的に以下の公式によりBCH公式が成り立つことが分かる.

(mould-Lie-mould公式)
 Mアルターナルなmouldとすると, M [B ] = MB である.

つまり,展開のmouldがアルターナルなら,mould展開とLie-mould展開は一致している.

ディンキンの公式の証明

ディンキンの公式の証明を行う.

アルファベットを元が二つの集合  \mathcal{W} = \{x, y\} とする. k = \mathbb{Q} として mouldを考える. X, Y \mathbb{Q} 代数の元とする.(行列と考えればよい.)このとき, B_x = tX, B_y = tY としてcomouldを定める.

ワード  \underline{n} x のとき  I_x^{\underline{n} }  = 1,それ以外のとき  I_x^{\underline{n} } = 0 としてmould  I_x を定義する.同様に,y のとき 1,それ以外を 0 として mould  I_y を定義する.すると,tX, tYtX = I_x B, tY = I_y B とmould展開できる.よって,e^{tX} = e^{I_x} B, e^{tY} = e^{I_y} B となる.よって,結合公式により,

\displaystyle \qquad e^{tX} e^{tY} = (e^{I_x} B ) (e^{I_y} B) = (e^{I_x} \times e^{I_y} )B
となるから,BCH公式は

\displaystyle \qquad \log (e^{tX} e^{tY} ) = \log(e^{I_x} \times e^{I_y}) B
を考えることになる.

ここで,I_xアルターナルである.
\because 実際,I_x^\emptyset = 0 であり,空でない  \underline{a}, \underline{b} に対して, \mathrm{sh}\, ( \underline{a}, \underline{b}; \underline{n}) \neq 0 となる  \underline{n} は長さが 2 以上だから,

\displaystyle
\qquad \sum_{\underline{n} \in \underline{\mathcal{W} } } \mathrm{sh} (\underline{a}, \underline{b}; \underline{n}) I_x^{\underline{n}} = 0
となる.)
同様に I_yアルターナルである.よって,補題より  e^{I_x}, e^{I_y} はシンメトラルなので  e^{I_x} \times e^{I_y} もシンメトラル,  \log(e^{I_x} \times e^{I_y})アルターナルであることが分かる.

 \log(e^{I_x} \times e^{I_y})アルターナルなので,mould-Lie-mould公式により,

\displaystyle \qquad \log (e^{tX} e^{tY} ) = \log(e^{I_x} \times e^{I_y}) B = \log(e^{I_x} \times e^{I_y}) [B]
となる.ここまでで,\log (e^{tX} e^{tY} ) がリー括弧で書けるところまでは示すことができた.

最後に,  \log(e^{I_x} \times e^{I_y}) [B] を定義通りに書き直すと,ディンキン公式であることが分かる.
まず, S:=e^{I_x} \times e^{I_y} とおく. e^{I_x} \underline{n} = x^p のとき   (e^{I_x})^{\underline{n}} = 1/p!,それ以外のとき  (e^{I_x})^{\underline{n}} = 0 である.I_y も同様.よって, S \underline{n} = x^p y^q のとき, S^{\underline{n}} = 1/(p! q!) であり,それ以外のとき  S^{\underline{n}} = 0 となることが分かる.よって,

\displaystyle \qquad \log(e^{I_x} \times e^{I_y}) B\\
\displaystyle \quad = \log(e^{I_x} \times e^{I_y}) [B] \\
\displaystyle \quad = \sum_{k \geq 1} \frac{(-1)^{k-1}}{k} \sum_{\underline{n_1}, \dots, \underline{n_k} \in \underline{\mathcal{W}} \setminus \emptyset}  \frac{1}{r(\underline{n_1}) \cdots r(\underline{n_k})} S^{\underline{n_1}} \cdots S^{\underline{n_k}} B_{[\underline{n_1}\dots \underline{n_k}]}
ここで, S^{\underline{n_1}} \cdots S^{\underline{n_k}} B_{[\underline{n_1}\dots \underline{n_k}]} が非零となるのは,S の定義から,それぞれの  \underline{n_j}x^{p_j} y^{q_j} と書けるときであるから,
 \displaystyle
\qquad \sum_{\underline{n_1}, \dots, \underline{n_k} \in \underline{\mathcal{W}} \setminus \emptyset}  \frac{1}{r(\underline{n_1}) \cdots r(\underline{n_k})} S^{\underline{n_1}} \cdots S^{\underline{n_k}} B_{[\underline{n_1}\dots \underline{n_k}]} \\
\displaystyle \quad = \frac{t^\sigma}{\sigma} \frac{1}{p_1! q_1!  \cdots p_k! q_k!} B_{[x^{p_1}y^{q_1} \dots x^{p_k}y^{q_k}]}
となる.ここで,和は全ての  (p_1, q_1), \dots, (p_k, q_k) \in \mathbb{N} \times \mathbb{N} \setminus \{(0,0)\} を動くとし, \sigma = p_1 + q_1 + \dots + p_k + q_k である.最後に, B_{[x^{p_1}y^{q_1} \dots x^{p_k}y^{q_k}]} の定義に従って書き直せば,
 \displaystyle \log(e^{I_x} \times e^{I_y}) B =  \log(e^{I_x} \times e^{I_y}) [B] はディンキン公式になっている.

残していた性質の証明

以下はそのうち完成させます.

シャッフル数の公式の証明

(シャッフル数の公式)

\displaystyle \qquad \mathrm{sh}\, (\underline{a}, \underline{b}; \underline{n_1} \underline{n_2})=\sum_{\underline{a} = \underline{a_1}\underline{a_2},\, \underline{b} = \underline{b_1}\underline{b_2} }
\mathrm{sh}\, (\underline{a_1}, \underline{b_1}; \underline{n_1} )\mathrm{sh}\, (\underline{a_2}, \underline{b_2}; \underline{n_2} )

dimouldと補題の証明

mouldとは一つのワード  \underline{a} に対して k の値を決めるものであった.一方,アルターナルやシンメトラルの定義に現れる

\displaystyle \qquad \sum_{\underline{n} \in \underline{\mathcal{W} } } \mathrm{sh} (\underline{a}, \underline{b}; \underline{n}) M^{\underline{n}}
という式は,2つのmould  \underline{a}, \underline{b} に対して  k を定めるものである.このような写像  P\colon \underline{\mathcal{W}} \times \underline{\mathcal{W}} \to kdimouldと呼ぶ.dimould P,Q に対しても積  P\times Q
 
\displaystyle \qquad (P\times Q)^{\underline{a}, \underline{b}} = \sum_{\underline{a} = \underline{a_1}\underline{a_2},\, \underline{b} = \underline{b_1}\underline{b_2} } P^{\underline{a_1}, \underline{b_1}} Q^{\underline{a_2}, \underline{b_2}}
と定める.mould から dimould への写像  \tau \colon k^{ \underline{\mathcal{W} } } \to k^{\underline{\mathcal{W} } \times \underline{\mathcal{W} } }

\displaystyle \qquad (\tau (M))^{\underline{a}, \underline{b}} := \sum_{\underline{n} \in \underline{\mathcal{W} } } \mathrm{sh} (\underline{a}, \underline{b}; \underline{n}) M^{\underline{n}}
と定める.すると以下が成り立つ.

補題
 \tau準同型写像である.

証明.線形性は明らか.

\displaystyle \qquad \tau(M\times N) = \tau(M) \times \tau(N)
を示す.シャッフル数の関係式を使うと以下のように計算できる.

\displaystyle \qquad \tau(M\times N)^{\underline{a}, \underline{b}} \\
\displaystyle \quad = \sum_{\underline{n} \in \underline{\mathcal{W} } } \mathrm{sh} (\underline{a}, \underline{b}; \underline{n}) (M \times N)^{\underline{n}}  \\
\displaystyle \quad = \sum_{\underline{n} \in \underline{\mathcal{W} } } \mathrm{sh} (\underline{a}, \underline{b}; \underline{n}) \sum_{\underline{n} = \underline{n_1} \underline{n_2}} M^{\underline{n_1}}  N^{\underline{n_2}} \\
\displaystyle \quad = \sum_{\underline{n_1}, \underline{n_2} \in \underline{\mathcal{W} } }  \mathrm{sh} (\underline{a}, \underline{b}; \underline{n_1} \underline{n_2}) M^{\underline{n_1}}  N^{\underline{n_2} }\\
\displaystyle \quad =\sum_{\underline{n_1}, \underline{n_2} \in \underline{\mathcal{W} } } \, \sum_{\underline{a} = \underline{a_1}\underline{a_2},\, \underline{b} = \underline{b_1}\underline{b_2} } \mathrm{sh}\, (\underline{a_1}, \underline{b_1}; \underline{n_1} )\mathrm{sh}\, (\underline{a_2}, \underline{b_2}; \underline{n_2} ) M^{\underline{n_1}}  N^{\underline{n_2} } \\
\displaystyle \quad = \sum_{\underline{a} = \underline{a_1}\underline{a_2},\, \underline{b} = \underline{b_1}\underline{b_2} } \tau(M)^{\underline{a_1}, \underline{b_1}} \tau(N)^{\underline{a_2}, \underline{b_2}} \\
\displaystyle \quad = (\tau(M) \times \tau(N))^{\underline{a}, \underline{b}}
よって証明ができた. \square

次に,2 つのmouldのテンソル M \otimes N (M\otimes N)^{\underline{a}, \underline{b}} = M^{\underline{a}} N^{\underline{b}} と定める.すると以下が成り立つ.

補題

\displaystyle \qquad (M_1 \otimes N_1) \times (M_2 \otimes N_2) = (M_1 \times M_2) \otimes (N_1 \times N_2)

証明は定義通りの式変形 \square

この補題から特に,

\displaystyle \qquad (M\otimes N)^{\times k} = M^{\times k} \otimes N^{\times k}
である.

さて,アルターナルの定義において, \underline{a}, \underline{b} のどちらかが空のときに条件を課していないが,定義通りに計算してみると,

\displaystyle \qquad \tau(M)^{\underline{a}, \emptyset} = M^{\underline{a}}\\
\displaystyle \qquad\tau(M)^{\emptyset, \underline{b}} = M^{\underline{b}}
となる.よって,アルターナルであることは

\displaystyle \qquad \tau(M) = M \otimes \mathbb{1} + \mathbb{1} \otimes M
と書き直すことができる.シンメトラルも書き直すことができて,以下の補題を得る.

補題
 \bullet  Mアルターナル  \iff 
\displaystyle  \tau(M) = M \otimes \mathbb{1} + \mathbb{1} \otimes M

 \bullet  M がシンメトラル  \iff 
\displaystyle  \tau(M) = M \otimes M

ここまでの補題を使えば,目標の補題機械的に証明できる.


補題

 \bullet シンメトラルなmouldの積はシンメトラルである.

 \bullet アルターナルなmouldの指数はシンメトラルである.

 \bullet シンメトラルなmouldの対数はアルターナルである.

証明.
\bullet  M, N がシンメトラルと仮定すると,
 
\displaystyle \qquad c \tau(M\times N)\\
\displaystyle \quad =\tau(M) \times \tau(N)\\
\displaystyle \quad =(M \otimes M) \times (N \otimes N) \\
\displaystyle \quad  =(M \times N) \otimes (M \otimes N) \\
よって, M\times N もシンメトラル.

\bullet まず,

\displaystyle \qquad e^{M \otimes \mathbb{1}} = \sum_{k=0}\frac{1}{k!} (M \otimes \mathbb{1})^{\times k}
= \sum_{k=0}\frac{1}{k!} M^{\times k} \otimes \mathbb{1}^{\times k} = e^M \otimes \mathbb{1}
に注意する.可換な  M,N に対しては,e^{M+N} = e^M \times e^N となることに注意して,Mアルターナルとして計算すると,

\displaystyle \qquad \tau(e^M)\\
\displaystyle \quad =\sum_{k=0}\frac{1}{k!} \tau(M^{\times k} ) \\
\displaystyle \quad =\sum_{k=0}\frac{1}{k!} \tau(M )^{\times k} \\
\displaystyle \quad =\sum_{k=0}\frac{1}{k!} (M \otimes \mathbb{1} + \mathbb{1} \otimes M )^{\times k} \\
\displaystyle \quad =e^{M \otimes \mathbb{1} + \mathbb{1} \otimes M} \\
\displaystyle \quad =e^{M \otimes \mathbb{1}} \times e^{ \mathbb{1}\otimes M } \\
\displaystyle \quad =(e^{M} \otimes \mathbb{1}) \times (\mathbb{1} \otimes e^{  M }) \\
\displaystyle \quad =(e^{M} \times \mathbb{1}) \otimes (\mathbb{1} \times e^{  M }) \\
\displaystyle \quad =e^{M} \otimes e^{  M }
となり,e^M はシンメトラルになる.

\bullet  M をシンメトラルとして, N = M - \mathbb{1} とおく.

\displaystyle \qquad M\otimes M = (\mathbb{1} + N) \otimes (\mathbb{1} + N) = \mathbb{1} \otimes \mathbb{1} + N \otimes \mathbb{1} + \mathbb{1} \otimes N + N \otimes N
であり, \tau(\mathbb{1}) = \mathbb{1} \otimes \mathbb{1} なので,

\displaystyle \qquad \tau(M - \mathbb{1}) = M\otimes M - \tau{\mathbb{1}} =  N \otimes \mathbb{1} + \mathbb{1} \otimes N + N \otimes N
よって,

\displaystyle \qquad \tau (\log M) = \sum_{k=1} \frac{(-1)^k}{k} (\tau(M - \mathbb{1} )^{\times k} \\
\displaystyle \quad =\sum_{k=1} \frac{(-1)^k}{k} (N \otimes \mathbb{1} + \mathbb{1} \otimes N + N \otimes N)^{\times k}\\
\displaystyle \quad =\log (\mathbb{1} \otimes \mathbb{1} + N \otimes \mathbb{1} + \mathbb{1} \otimes N + N \otimes N)
ここで,

\displaystyle \qquad \mathbb{1} \otimes \mathbb{1} + N \otimes \mathbb{1} + \mathbb{1} \otimes N + N \otimes N\\
 \displaystyle \quad= \mathbb{1} \otimes \mathbb{1} + N \otimes \mathbb{1} + \mathbb{1} \otimes N + (N \otimes \mathbb{1}) \times (\mathbb{1} \otimes N ) \\
\displaystyle \quad = (\mathbb{1} \otimes \mathbb{1} + N \otimes \mathbb{1} ) \times (\mathbb{1} \otimes \mathbb{1} +   \mathbb{1} \otimes N )
であり, N \otimes \mathbb{1},  \mathbb{1} \otimes N は可換なので,

\displaystyle \qquad \tau (\log M) \\
\displaystyle \quad =\log ( (\mathbb{1} \otimes \mathbb{1} + N \otimes \mathbb{1} ) \times (\mathbb{1} \otimes \mathbb{1} +   \mathbb{1} \otimes N ) ) \\
\displaystyle \quad = \log ( \mathbb{1} \otimes \mathbb{1} + N \otimes \mathbb{1} ) + \log (\mathbb{1} \otimes \mathbb{1} +   \mathbb{1} \otimes N ) \\
であり,展開すれば指数のときと同様に,

\displaystyle \quad \log ( \mathbb{1} \otimes \mathbb{1} + N \otimes \mathbb{1} ) =  (\log  (\mathbb{1}+ N) )\otimes \mathbb{1}
が分かるので,結局

\displaystyle \qquad \tau (\log M)\\
\displaystyle \quad =(\log  (\mathbb{1}+ N) )\otimes \mathbb{1}  + \mathbb{1} \otimes (\log  (\mathbb{1}+ N) ) \\
\displaystyle \quad = (\log  M )\otimes \mathbb{1}  + \mathbb{1} \otimes (\log  M)
となるから, \log Mアルターナルになる.  \square

mould-Lie-mould公式の証明

(mould-Lie-mould公式)
 Mアルターナルなmouldとすると, M [B ] = MB である.

指数関数の代数的独立性

微分体の理論』を読んでいたときに,指数関数の代数的独立性が必要になった(と思う)が,証明が分からなかった.たまたま読んでいた本に証明がのっていたので,復習をかねてまとめておく.

(定理)
複素数  \alpha_1, \dots, \alpha_r \mathbb{Z} 上線形独立とする.つまり,整数の組  (s_1, \dots, s_r) に対して, \sum_{j=1}^r s_j \alpha_j = 0 ならば,全ての  j s_j = 0 とする.このとき, e^{\alpha_1 x}, \dots, e^{\alpha_r x} \mathbb{C} 上代数的独立である.

(証明) e^{\alpha_1 x}, \dots, e^{\alpha_r x} が代数的従属とすると, \alpha_1, \dots, \alpha_r\mathbb{Z} 上線形従属であることを示す.

係数が 1 r 変数単項式  m = X_1^{s_1} \cdots X_r^{s_r} に対して, e^{\alpha_1 x}, \dots, e^{\alpha_r x} を代入すると,
 \displaystyle
\quad m(e^{\alpha_1 x}, \dots, e^{\alpha_r x}) = \exp \left( \sum_j^r s_j \alpha_j \right)
が成り立つ.そこで, \ell_m (\alpha_1, \dots, \alpha_r) = \sum_{j=1}^r s_j \alpha_j と定める.仮定より, e^{\alpha_1 x}, \dots, e^{\alpha_r x} に対して,非自明な多項式  P
\displaystyle
\quad P(e^{\alpha_1 x}, \dots, e^{\alpha_r x}) = 0
となるものが存在するので,非零の複素数  \lambda_1, \dots, \lambda_n と異なる単項式  m_1, \dots, m_n を用いて,
\displaystyle
\quad P = \sum_{j=1}^n \lambda_j m_j
と表す.すると,
\displaystyle
\quad P(e^{\alpha_1 x}, \dots, e^{\alpha_r x}) = \sum_{j=1}^n \lambda_j \exp( \ell_{m_j} (\alpha_1, \dots, \alpha_r) x ) = 0
となる. \gamma_j = \ell_{m_j} (\alpha_1, \dots, \alpha_r) と表すことにする.この式を  n - 1微分すると全てで n 個の連立方程式が得られる.
 \displaystyle
\quad  \sum_{j=1}^n \lambda_j \exp( \gamma_j  x ) = 0 \\
\quad \displaystyle \sum_{j=1}^n\gamma_j  \lambda_j \exp( \gamma_j  x ) = 0 \\
\qquad \qquad \displaystyle\vdots \\
\quad \displaystyle \sum_{j=1}^n \gamma_j^{n-1} \lambda_j \exp( \gamma_j  x ) = 0
これは行列で書くと以下のようになる:
\displaystyle
\quad 
\left(
\begin{matrix}
1 & 1 & \dots &1 \\
\gamma_1 & \gamma_2 & \dots & \gamma_{n} \\
 & & \vdots &  \\
\gamma_1^{n-1} & \gamma_2^{n-1} & \dots & \gamma_{n}^{n-1}
\end{matrix}
\right)
\left(
\begin{matrix}
\lambda_1 \exp( \gamma_1  x ) \\
\lambda_2 \exp( \gamma_2  x ) \\
\vdots \\
\lambda_n \exp( \gamma_n  x )
\end{matrix}
\right)
 = 0
つまり,線形方程式
\displaystyle
\quad 
\left(
\begin{matrix}
1 & 1 & \dots &1 \\
\gamma_1 & \gamma_2 & \dots & \gamma_{n} \\
 & & \vdots &  \\
\gamma_1^{n-1} & \gamma_2^{n-1} & \dots & \gamma_{n}^{n-1}
\end{matrix}
\right)
\left(
\begin{matrix}
X_1\\
X_2 \\
\vdots \\
X_n
\end{matrix}
\right)
 = 0
は非自明な解を持っているため,係数の行列は正則でない.係数の行列はファンデルモンド行列であり,行列式

\displaystyle \quad \prod_{1 \leq j < k \leq n} (\gamma_j - \gamma_k) = 0
となるから,ある  j < k \gamma_j - \gamma_k = 0 となる.
つまり, \ell_{m_j} (\alpha_1, \dots, \alpha_r) - \ell_{m_k} (\alpha_1, \dots, \alpha_r) = 0 となる. \ell_m の定義に戻れば,これは  \alpha_1, \dots, \alpha_r が整数係数の非自明な線形関係式を満たすことを意味する.  \square

(参考文献)
『Divergent Series, Summability and Resurgence I』

三体問題を解く(正三角形解と共線解)

前回、二体問題はケプラー問題に帰着されることとケプラー問題は解けることを見ました.
tetobourbaki.hatenablog.com

三体問題は一般には解けませんが,解ける解として正三角形解と共線解(直線解と言われることが多い)が知られています.下の動画ではこれら以外の周期解も紹介されてます.

今回は正三角形解と共線解は自然な考察で求められることを説明します.
途中の議論は以下の本を参考にしています.

David Hestens, New Foundations for Classical Mechanics

三体問題

さっそく三体問題微分方程式を与えます.簡単のため重力定数 g=1 とします.( g は質量との積で現れるので,質量を変えれば, g1 の場合と同じになる.)

\displaystyle \qquad  \ddot{q}_1 = - m_2 \frac{q_1 - q_2}{|q_1 - q_2|^3}- m_3 \frac{q_1 - q_3}{|q_1 - q_3|^3} \\
\displaystyle \qquad  \ddot{q}_2 = - m_1 \frac{q_2 - q_1}{|q_2 - q_1|^3}- m_3 \frac{q_2 - q_3}{|q_1 - q_3|^3} \\
\displaystyle \qquad  \ddot{q}_3 = - m_1 \frac{q_3 - q_1}{|q_3 - q_1|^3}- m_2 \frac{q_3 - q_2}{|q_3 - q_2|^3}
ここで,重心は原点と一致していると仮定しても一般性を失いません.

\displaystyle \qquad m_1 q_1 + m_2 q_2 + m_3 q_3 = 0
ここで,重要な変数として相対位置ベクトルを導入します.

\displaystyle \qquad s_1 = q_3 - q_2 \\
\displaystyle \qquad s_2 = q_1 - q_3 \\
\displaystyle \qquad s_3 = q_2 - q_1 \\
これらに対しては明らかに

\displaystyle \qquad s_1 + s_2 + s_3 = 0
が成り立ちます.重心が原点にあることを用いれば,元の位置が相対位置ベクトルから求めることができます.

\displaystyle \qquad m q_1 = m_3 s_2 - m_2 s_3 \\
\displaystyle \qquad m q_2 = m_1 s_3 - m_3 s_1 \\
\displaystyle \qquad m q_3 = m_2 s_1 - m_1 s_2
ここで, m = m_1 + m_2 + m_3 とおいています.よって,相対位置ベクトルの運動が分かれば解が分かることになります.計算してみると,相対位置ベクトルの運動方程式は以下のようになることが分かります.
 
\displaystyle \qquad m \ddot{s_1} = - m \frac{s_1}{|s_1|^3} + m_1 g(s_1, s_2, s_3) \\
\displaystyle \qquad m \ddot{s_2} = - m \frac{s_2}{|s_2|^3} + m_2 g(s_1, s_2, s_3) \\
\displaystyle \qquad m \ddot{s_3} = - m \frac{s_3}{|s_3|^3} + m_3 g(s_1, s_2, s_3) \\
ここで,

\displaystyle \qquad g(s_1, s_2, s_3) = \frac{s_1}{|s_1|^3} + \frac{s_2}{|s_2|^3} + \frac{s_3}{|s_3|^3}
はベクトルです.

元の方程式とは少し違う方程式になりました.よく見ると, g(s_1, s_2, s_3) = 0 の場合, s_1, s_2, s_3 の方程式はそれぞれ
 
\displaystyle \qquad  \ddot{s} = - \frac{s}{|s|^3}
という形の方程式になっています.これは前回紹介したケプラー問題の方程式です.つまり,  s_1, s_2, s_3ケプラー問題の解で常に  g(s_1, s_2, s_3) = 0 を満たしているならば,三体問題の解になっているということです.ケプラー問題は解けるので,このように見つかった解は初等関数で書くことができます.

よって,  g(s_1, s_2, s_3) = 0 を満たすケプラー問題の解を探すという問題に帰着されます.

ラグランジュの正三角形解

問題は  g(s_1, s_2, s_3) = 0 を満たすようにすることでした. g(s_1, s_2, s_3) の定義を見てみると,まずは  |s_1|^2 = |s_2|^2 = |s_3|^2 となるようなものを考えたくなります.もしそうだとすると,相対位置ベクトルは定義から  s_1 + s_2 + s_3 = 0 だったので,自然と  g(s_1, s_2, s_3) = 0 となります.

ここからは平面の運動を考えることとして, 2 次元空間を複素数平面で表示することにします.
条件  |s_1|^2 = |s_2|^2 = |s_3|^2] を満たすのは正三角形だけであり, s_1 +s_2 + s_3 = 0 より  s_1, s_2 s_3 を用いて

\displaystyle \qquad s_1 = e^{ i 2 \pi/3} s_3 = - \frac{1}{2} ( 1 - i \sqrt{3} ) s_3 \\
\displaystyle \qquad s_2 = e^{- i 2 \pi/3} s_3 = \frac{1}{2} ( 1 + i \sqrt{3} ) s_3
と書けます.( s_1 s_2 を逆にとったものでもよい.)よって, s_3 の初期条件に対して
 
\displaystyle \qquad  \ddot{s_3} = - \frac{s_3}{|s_3|^3}
を解いて,これから  s_1, s_2 を求めれば,常に正三角形の位置関係を保ちながら運動する解が得られます.これがラグランジュの正三角形解です.

少し違う話ですが,円制限三体問題では 5 つのラグランジュ点があります.そのうち安定な二つのラグランジュ点はラグランジュの正三角形解の極限( m_1 \to 0)として得られたものと考えることができます.

オイラーの共線解解

次に, q_1, q_2, q_3 が一つの直線上に常に乗っていると仮定しましょう. q_1 q_3 の間に  q_2 があるとします.実数  \lambda を用いて,s_1 = \lambda s_3 と表すと, s_1 + s_2 + s_3 = 0 より, s_2 = -(1 + \lambda) s_3 となります.(相対位置ベクトルで書くと何をやってるのか分かりにくいので,q_1, q_2, q_3 が直線上に乗っている絵を書くと分かりやすいです.)すると, g(s_1, s_2, s_3)0 とはならないものの

\displaystyle \qquad m \ddot{s_3} = - m \frac{s_3}{|s_3|^3} + m_3 g(s_1, s_2, s_3)\\
\displaystyle \qquad \qquad = - m \frac{s_3}{|s_3|^3} + m_3 \text{(定数)} \frac{s_3}{|s_3|^3}\\
\displaystyle \qquad \qquad =- \left[\left(m_1 - m_3 \lambda^{-2} \right) + \left( m_2 + m_3 (1+\lambda)^{-2} \right) \right] \frac{s_3}{|s_3|^3}  \\
となるので, s_3 に関してはケプラー問題になります.ただし,この段階では  s_1, s_2微分方程式を満たすかどうかが分かりません. s_1, s_2 の方程式から s_3 の方程式を使って, g(s_1, s_2, s_3) を消去すると,

\displaystyle \qquad \ddot{s_1} + m \frac{s_1}{|s_1|^3} = \frac{m_1}{m_3} \left(\ddot{s_3} + m \frac{s_3}{|s_3|^3} \right) \\
\displaystyle \qquad \ddot{s_2} + m \frac{s_2}{|s_2|^3} = \frac{m_2}{m_3} \left(\ddot{s_3} + m \frac{s_3}{|s_3|^3} \right)
となる.これも満たされれば,s_1, s_2, s_3 は三体問題の解になっていることになる.s_1 = \lambda s_3, s_2 = -(1 + \lambda) s_3 を仮定していたので,これらを代入すると,

\displaystyle \qquad (m_1 - m_3 \lambda) \ddot{s_3} = - (m_1 - m_3 \lambda^{-2} )  \frac{m s_3}{|s_3|^3} \\
\displaystyle \qquad (m_2 + m_3(1+ \lambda) ) \ddot{s_3} = - (m_1 + m_3 (1+\lambda)^{-2} )  \frac{m s_3}{|s_3|^3}
となる.1番目の式で2番目の式を割ると  s_3 を消すことができて,

\displaystyle \qquad  \frac{m_2 + m_3(1+ \lambda)}{m_1 - m_3 \lambda} = \frac{m_2 + m_3 (1+\lambda)^{-2} }{m_1 - m_3 \lambda^{-2}}
でなければならない.これを頑張って計算すると,

\displaystyle \qquad \left( m_{1}+m_{2} \right) {\lambda}^{5}+ \left( 3\,m_{1}+2\,m_{2}
 \right) {\lambda}^{4}+ \left( 3\,m_{1}+m_{2} \right) {\lambda}^{3} \\
  \displaystyle \qquad \qquad -\left( m_{2}+3\,m_{3} \right) {\lambda}^{2}- \left( 2\,m_{2} + 3\,m_{3} \right) \lambda-(m_{2} +m_{3})
 = 0

となる. 5 次方程式なので解が存在するが,さらにデカルトの符号法則より,解  \lambda^* がただ一つであることも分かる.しかも方程式の定数項が負なので,この  \lambda^* は正であることも分かる.

デカルトの符号法則を初めて使ったが非常に便利ですね。)

ここまでで必要性しか示していない(はずである).逆に,この \lambda^* を取って,s_3 に関するケプラー問題を解けば,s_1 = \lambda^* s_3 s_2 = -(1+\lambda^*) s_3微分方程式を満たすことがわかる.(議論のギャップを埋めよ.)

今回は  q_2 が間にあるケースを考えたが,そうでない残りの2つの場合を考えることで合計3つの共線解の配置が得られました.(ただ,q_2 が間にあるという仮定をどこで使っているのかよくわかっていない.)おそらくこの3つの直線解は円制限三体問題における不安定なラグランジュ点に対応しているのだと思います.