| 📙 Méthodes | |
| Algorithme — Changement d'indice en 4 étapes | → I.1 |
| Méthode — Appliquer un télescopage en 3 étapes | → II.3 |
| 📘 Théorèmes et formules | |
| Formule du télescopage (deux formes) | → II.1 |
| Formule — Changement d'ordre triangulaire | → III.4 |
| Théorème de Fubini discret | → III.2 |
| Proposition — Produit de deux sommes | → III.2 |
| Identité \(k \cdot k! = (k+1)! - k!\) | → II.2 |
| 📗 Patterns à reconnaître | |
| Patterns 1–4 — Changement d'indice | → I.4 |
| Patterns 0–4 — Télescopage | → II.2 |
| Retournement \(j = n-k\) | → I.5 |
| ⚠ Pièges classiques | |
| 5 pièges à éviter | → fin |
| N° | Titre | Technique | Difficulté |
| 1 | Symétrie du binôme de Newton | Changement d'indice — retournement | ★☆☆ |
| 2 | Un résultat non trivial | Changement d'indice — retournement + décalage | ★★☆ |
| 3 | Astuce de Gauss | Changement d'indice — symétrie | ★☆☆ |
| 4 | Éléments simples | Télescopage — pattern 1 | ★☆☆ |
| 5 | Factorielles | Télescopage — pattern 4 | ★☆☆ |
| 6 | Différence explicite | Télescopage — pattern 2 | ★☆☆ |
| 7 | Tâtonnement sur \(f\) | Télescopage — pattern 3 | ★★☆ |
| 8 | Télescopage sans déployer | Télescopage — pattern 0 | ★★☆ |
| 9 | Vérification \(a_{i,j} = 1\) | Somme double — changement d'ordre | ★☆☆ |
| 10 | Vérification \(a_{i,j} = i+j\) | Somme double — changement d'ordre | ★☆☆ |
| 11 | Calcul triangulaire | Somme double + télescopage (2 voies) | ★★★ |
| 12 | Produit de deux sommes | Somme double — cas rectangulaire | ★☆☆ |
| 13 | Sommes harmoniques ★★★ | Somme double — changement d'ordre triangulaire | ★★★ |
| 14 | Télescopage de racines carrées | Télescopage — pattern 2 + conjugué | ★★☆ |
| 15 | Produit de trois entiers consécutifs | Télescopage — pattern 0 + analogie primitive | ★★★ |
| 16 | Suite de Fibonacci | Télescopage — pattern 2 + récurrence | ★★☆ |
| 17 | \(\sum k2^k\) | Télescopage — identification polynôme × exponentielle | ★★☆ |
| 18 | Interversion et harmoniques | Somme double — changement d'ordre + exercice 8 | ★★★ |
| 19 | Divergence de la série harmonique | Minoration par blocs doublants | ★★★ |
Dans une somme \(\displaystyle\sum_{k=1}^{n} u_k\), la lettre \(k\) s'appelle l'indice de sommation. Elle n'existe pas en dehors de la somme — c'est juste un outil de notation interne, une "variable muette". On peut la remplacer par n'importe quelle lettre non déjà utilisée sans changer la valeur de la somme :
\[\sum_{k=1}^{n} k^2 = \sum_{j=1}^{n} j^2 = \sum_{i=1}^{n} i^2\]Dans \(\displaystyle\sum_{k=1}^{n}(k^2 + 2k + n + 5)\), on distingue :
Le résultat final dépendra de \(n\) — c'est normal. Il ne dépendra plus de \(k\) — c'est la preuve que le calcul est correct.
En Python, une somme \(\displaystyle\sum_{k=1}^{n} u_k\) s'écrit :
def S(n):
total = 0
for k in range(1, n+1):
total += k**2 + 2*k + n + 5
return total # dépend de n, pas de k
Après la boucle, la variable k existe encore en Python (elle vaut n, la dernière valeur du for), mais total ne doit plus en dépendre. Si par erreur on retournait k*(k+1)//2, on retournerait n*(n+1)//2 — résultat qui dépend du hasard de la dernière valeur de boucle, pas de la somme.
Dans la somme \(\displaystyle\sum_{k=i}^{j} u_k\), le nombre de termes est \(j - i + 1\).
Avant d'appliquer la formule, toujours vérifier sur un petit exemple concret. Pour \(\displaystyle\sum_{k=3}^{7} u_k\), liste les termes : \(u_3, u_4, u_5, u_6, u_7\) — et compte : 5. Et \(7 - 3 + 1 = 5\) ✓
Astuce — Ramener à zéro : pose \(k' = k - i\), alors \(k'\) va de \(0\) à \(j - i\). Compter de \(0\) à \(j-i\) c'est \(j - i + 1\) valeurs — et là c'est évident avec les doigts.
Que vaut une somme quand il n'y a rien à additionner ? Par exemple \(\displaystyle\sum_{k=5}^{3} u_k\) — la borne du bas est plus grande que la borne du haut, donc il n'y a aucun entier entre 5 et 3.
Une somme sur un ensemble vide d'indices vaut 0 — parce que 0 est l'élément neutre de l'addition. C'est la même logique que dire qu'un produit vide vaut 1 (élément neutre de la multiplication).
On peut toujours couper une somme en deux à n'importe quel endroit. Par exemple :
\[\sum_{k=1}^{5} u_k = \underbrace{u_1 + u_2 + u_3}_{\displaystyle\sum_{k=1}^{3} u_k} + \underbrace{u_4 + u_5}_{\displaystyle\sum_{k=4}^{5} u_k}\]Plus généralement :
\[\sum_{k=1}^{n} u_k = \sum_{k=1}^{m} u_k + \sum_{k=m+1}^{n} u_k\]Si on coupe après le dernier terme, \(m = n\) :
\[\sum_{k=1}^{n} u_k = \sum_{k=1}^{n} u_k + \underbrace{\sum_{k=n+1}^{n} u_k}_{\text{vide}}\]Sans la convention somme vide = 0, cette ligne serait fausse. Avec elle, elle est vraie — la formule de découpage reste valable dans tous les cas.
La linéarité n'est pas une propriété mystérieuse — c'est juste la distributivité qu'on connaît depuis le collège, appliquée à une somme.
Calculons \(\displaystyle\sum_{k=3}^{5}(2k+5)\) en déployant :
\[(2\times3 + 5) + (2\times4 + 5) + (2\times5 + 5)\]On regroupe les termes en \(2k\) d'un côté et les \(+5\) de l'autre :
\[= 2\times3 + 2\times4 + 2\times5 + 5 + 5 + 5\] \[= 2\times(3+4+5) + 3\times5\]Le 3 devant le 5, c'est le nombre de termes (section 0.2) — on retrouve un lien naturel entre les deux notions. En langage somme :
\[\sum_{k=3}^{5}(2k+5) = 2\sum_{k=3}^{5} k + 5 \times \underbrace{3}_{\text{nb de termes}}\]Pour tous réels \(a\) et \(b\) et toutes suites \((u_k)\) et \((v_k)\) :
\[\sum_{k=i}^{j}(a\, u_k + b\, v_k) = a\sum_{k=i}^{j} u_k + b\sum_{k=i}^{j} v_k\]En particulier, si \(C\) est une constante :
\[\sum_{k=i}^{j} C = C \times (j - i + 1)\]On peut maintenant calculer \(\displaystyle\sum_{k=1}^{n}(k^2 + 2k + n + 5)\) :
\[\sum_{k=1}^{n}(k^2 + 2k + n + 5) = \sum_{k=1}^{n} k^2 + 2\sum_{k=1}^{n} k + \underbrace{\sum_{k=1}^{n} n}_{n \times n} + \underbrace{\sum_{k=1}^{n} 5}_{5n}\] \[= \frac{n(n+1)(2n+1)}{6} + n(n+1) + n^2 + 5n\]Le résultat dépend de \(n\) mais plus de \(k\) — c'est la règle de détection d'erreur de la section 0.1.
On veut effectuer le changement d'indice \(j = k + c\) dans la somme \(\displaystyle\sum_{k=a}^{b} u_k\).
On obtient alors :
\[\sum_{k=a}^{b} u_k = \sum_{j=a+c}^{b+c} u_{j-c}\]On observe que \(\displaystyle\sum_{p=0}^{n-1}\frac{1}{p+1}\) a son indice de sommation \(p\) au dénominateur, mais décalé de 1. On cherche à réécrire cette somme sous la forme \(\displaystyle\sum \frac{1}{k}\), plus connue et plus facile à manipuler, c'est-à-dire avec l'indice seul au dénominateur. On pose donc \(k = p + 1\).
| Étape | Calcul | Résultat |
|---|---|---|
| 1 — Borne inf. | \(p = 0 \Rightarrow k = 0+1\) | \(k_{\min} = 1\) |
| 2 — Borne sup. | \(p = n-1 \Rightarrow k = (n-1)+1\) | \(k_{\max} = n\) |
| 3 — Terme général | \(p = k-1\), donc \(\dfrac{1}{p+1} = \dfrac{1}{(k-1)+1}\) | \(\dfrac{1}{k}\) |
| 4 — Vérification | Premier terme (\(p=0\)) : \(\dfrac{1}{0+1} = 1\) ; (\(k=1\)) : \(\dfrac{1}{1} = 1\) | ✅ |
On conclut :
\[\sum_{p=0}^{n-1}\frac{1}{p+1} = \sum_{k=1}^{n}\frac{1}{k}\]Le même algorithme s'applique à un produit \(\displaystyle\prod_{k=a}^{b} u_k\).
Pour un changement de la forme \(j = \alpha k + c\) (avec \(\alpha \neq 1\)), les étapes sont identiques mais le terme général se réécrit avec \(k = \dfrac{j-c}{\alpha}\). Vérifier que \(j\) reste entier pour toutes les valeurs.
Le tableau n'est pas une exigence des professeurs, mais une aide temporaire. Ce qu'ils préconisent, c'est que la démarche soit explicitement tracée : le changement de variable posé, les nouvelles bornes calculées, le terme général réécrit. C'est là que les erreurs se glissent quand on fait tout mentalement.
Une fois le réflexe installé, le changement d'indice s'écrit en une ou deux lignes directement. En attendant, tracer les étapes est une bonne habitude — et les correcteurs apprécient que le raisonnement soit visible.
Savoir quand faire un changement d'indice est aussi important que savoir comment le faire. Voici les patterns les plus fréquents en PTSI.
On voit \(\displaystyle\sum u_{k+c}\) ou \(\displaystyle\sum u_{k-c}\), où \(c\) est une constante entière : l'indice dans le terme général est décalé par rapport à l'indice de sommation.
Remède : poser \(j = k + c\) pour ramener l'indice à sa forme naturelle \(u_j\).
C'est le cas de l'exemple du DM : \(\dfrac{1}{p+1}\) avec \(j = p+1\).
Compromis : on simplifie le terme général au prix d'un décalage des bornes. C'est en général un bon échange — des bornes décalées restent simples à écrire, alors qu'un terme général compliqué est pénible à manipuler.
\((n-k)\) apparaît dans le terme général alors qu'on voudrait que ce soit l'indice lui-même.
Remède : poser \(j = n - k\) (voir section I.5). On parcourt les mêmes termes que la somme originale, mais dans l'ordre inverse.
C'est le cas de l'exercice 2 : \((n-k)\binom{n}{k}\) avec \(j = n-k\).
On veut calculer \(\displaystyle S = \sum_{k=0}^{n} f(k)\) en exploitant une symétrie. Le retournement \(j = n-k\) donne une deuxième écriture de la même somme \(S\). En additionnant les deux écritures terme à terme, chaque paire \(f(k) + f(n-k)\) se simplifie et on obtient \(2S\) sous une forme facile à calculer.
C'est l'astuce de Gauss pour \(\sum_{k=0}^{n} k\) — voir exercice 3.
On rencontre une somme de la forme \(\displaystyle\sum_{k=0}^{n} a_k\, b_{n-k}\) : le premier facteur dépend de \(k\) et le second de \(n-k\). C'est ce qu'on appelle un produit de convolution — il apparaît naturellement dans le produit de deux polynômes ou de deux suites.
Remède : le retournement \(j = n - k\) échange les rôles de \(a\) et \(b\) : la somme devient \(\displaystyle\sum_{j=0}^{n} a_{n-j}\,b_j\). Cela permet de montrer que la convolution est symétrique : \(\displaystyle\sum_{k=0}^{n} a_k\,b_{n-k} = \sum_{k=0}^{n} a_{n-k}\,b_k\).
Pour s'en convaincre : quand on développe le produit \(A(x)B(x)\), un terme en \(x^n\) s'obtient en multipliant \(a_k x^k\) par \(b_{n-k} x^{n-k}\), pour chaque \(k\) entre \(0\) et \(n\) :
\[\text{coeff. de } x^n \text{ dans } A(x)B(x) = \sum_{k=0}^{n} a_k\, b_{n-k}\]Par exemple, avec \(A(x) = 1 + 2x + 3x^2\) et \(B(x) = 1 + x + x^2\), le coefficient de \(x^2\) est :
\[a_0 b_2 + a_1 b_1 + a_2 b_0 = 1\cdot 1 + 2\cdot 1 + 3\cdot 1 = 6\]On vérifie : \(A(x)B(x) = (1+2x+3x^2)(1+x+x^2) = 1 + 3x + 6x^2 + \cdots\) ✓
Quand le terme général ne dépend que de \(k \mod p\) (le reste de la division de \(k\) par \(p\)), on regroupe les indices selon leur reste. Par exemple pour sommer séparément les termes pairs et impairs d'une suite.
Prérequis : congruences et arithmétique modulaire.
La somme \(\displaystyle\sum_{k=0}^{r}\binom{m}{k}\binom{n}{r-k} = \binom{m+n}{r}\) se prouve par le changement \(j = r - k\) — le terme \(\binom{n}{r-k}\) suggère naturellement ce retournement.
Prérequis : combinatoire et coefficients binomiaux.
La somme \(X_k = \displaystyle\sum_{n=0}^{N-1} x_n\, e^{-2\pi i kn/N}\) admet des propriétés de symétrie révélées par le changement \(n \to N - n\) — un retournement modulaire qui fait apparaître le spectre conjugué.
Prérequis : nombres complexes, analyse de Fourier.
Le changement \(j = n - k\) est un cas particulier très fréquent qui mérite une attention spéciale. On l'appelle retournement car on lit la somme dans l'ordre inverse.
Poser \(j = n - k\), c'est simplement dire que \(j + k = n\). On dit que \(j\) et \(k\) sont complémentaires par rapport à \(n\) — leur somme vaut \(n\), c'est tout. Pas plus profond que ça.
Concrètement : si \(n = 10\) et \(k = 3\), alors \(j = 7\). Quand \(k\) est grand, \(j\) est petit, et vice versa — on parcourt les mêmes valeurs mais dans l'ordre inverse.
On choisit ce retournement quand on voit apparaître \((n - k)\) dans le terme général et qu'on voudrait que ce soit l'indice de sommation lui-même. Après retournement, \((n-k)\) devient simplement \(j\), ce qui simplifie l'expression.
C'est aussi la même idée que derrière \(\binom{n}{k} = \binom{n}{n-k}\) : choisir \(k\) éléments parmi \(n\), c'est choisir les \(n-k\) qu'on ne prend pas — les deux points de vue sont symétriques.
Quand une expression contient plusieurs sommes avec des exposants différents (par exemple \(x^{k+1}\) et \(x^k\) dans la même somme), on ne peut pas lire directement les coefficients. L'objectif est de tout ramener au même exposant \(x^j\) pour pouvoir regrouper et lire les coefficients.
Soit \(\displaystyle P(x) = \sum_{k=0}^{10}\bigl((k-2)x^{k+1} + 5x^k\bigr)\).
Problème : chaque terme contient deux monômes de degrés différents — \(x^{k+1}\) et \(x^k\). On ne peut pas lire les coefficients sous cette forme.
Étape 1 — Séparer par linéarité :
\[P(x) = \underbrace{\sum_{k=0}^{10}(k-2)x^{k+1}}_{\text{exposants }k+1} + \underbrace{\sum_{k=0}^{10}5x^k}_{\text{exposants }k}\]Étape 2 — Aligner les exposants : on veut que les deux sommes soient en \(x^j\). Dans la première, l'exposant est \(k+1\) — on pose \(j = k+1\) :
Dans la deuxième, l'exposant est déjà \(k\) — on renomme juste \(k\) en \(j\). On obtient :
\[P(x) = \sum_{j=1}^{11}(j-3)x^j + \sum_{j=0}^{10}5x^j\]Étape 3 — Gérer les bornes : les deux sommes ne vont pas exactement de 0 à 11 — il faut traiter les bords séparément.
Lecture des coefficients : par simple lecture, le coefficient de \(x^j\) pour \(1 \leq j \leq 10\) est \(j+2\). Par exemple, le coefficient de \(x^5\) est \(5+2 = 7\).
Pour éliminer le \(+1\) dans \(x^{k+1}\), on peut aussi factoriser : \(x^{k+1} = x \cdot x^k\). Alors :
\[\sum_{k=0}^{10}(k-2)x^{k+1} = x\sum_{k=0}^{10}(k-2)x^k\]Les deux sommes sont alors en \(x^k\) sans changement d'indice. C'est plus rapide ici, mais le changement d'indice est plus général quand on ne peut pas factoriser facilement.
Le retournement donne \(\displaystyle\sum_{j=n}^{0}\) — la borne du bas est plus grande que la borne du haut, ce qui est inhabituel. On renverse les bornes en invoquant la commutativité de l'addition : l'ordre dans lequel on additionne les termes ne change pas la somme. Donc \(\displaystyle\sum_{j=n}^{0} = \sum_{j=0}^{n}\) :
\[\sum_{k=0}^{n}\binom{n}{k}x^k = \sum_{j=0}^{n}\binom{n}{j}x^{n-j} = x^n\sum_{j=0}^{n}\binom{n}{j}\left(\frac{1}{x}\right)^j = x^n\!\left(1+\frac{1}{x}\right)^{\!n} = (x+1)^n\]Résultat connu par le binôme de Newton — bon exercice de mécanique, mais pas de surprise.
Le retournement donne \(\displaystyle\sum_{j=n}^{0}\) — on renverse les bornes par commutativité de l'addition :
\[\sum_{k=0}^{n}(n-k)\binom{n}{k} = \sum_{j=0}^{n}j\binom{n}{j}\]Or \(j\binom{n}{j} = n\binom{n-1}{j-1}\), donc :
\[\sum_{j=0}^{n}j\binom{n}{j} = n\sum_{j=1}^{n}\binom{n-1}{j-1}\]On observe que \(\binom{n-1}{j-1}\) a son indice décalé de 1 — exactement comme dans l'exemple du DM. On veut se ramener à \(\binom{n-1}{i}\) avec l'indice seul en bas.
On pose \(i = j - 1\) :
On obtient donc :
\[n\sum_{j=1}^{n}\binom{n-1}{j-1} = n\sum_{i=0}^{n-1}\binom{n-1}{i}\]Or par le binôme de Newton avec \(x = y = 1\) : \((1+1)^{n-1} = \displaystyle\sum_{i=0}^{n-1}\binom{n-1}{i} = 2^{n-1}\). Donc :
\[\sum_{k=0}^{n}(n-k)\binom{n}{k} = n \cdot 2^{n-1}\]Le changement d'indice transforme une somme difficile en une somme connue — c'est l'intérêt de la méthode.
Donc \(S = \displaystyle\sum_{j=0}^{n}(n-j) = \sum_{k=0}^{n}(n-k)\). On additionne les deux expressions de \(S\) :
\[2S = \sum_{k=0}^{n} k + \sum_{k=0}^{n}(n-k) = \sum_{k=0}^{n}\bigl(k + (n-k)\bigr) = \sum_{k=0}^{n} n = (n+1)\,n\]D'où \(\displaystyle S = \frac{n(n+1)}{2}\).
C'est la démonstration classique de Gauss — le retournement donne une deuxième écriture de \(S\), et additionner les deux fait apparaître une somme triviale terme à terme.
Imaginons la somme \(\displaystyle\sum_{k=1}^{n}(u_{k+1} - u_k)\). Écrivons les termes un par un :
En additionnant tout, presque tout s'annule : \(u_2\) avec \(-u_2\), \(u_3\) avec \(-u_3\), etc. Il ne reste que les deux extrémités :
\[\sum_{k=1}^{n}(u_{k+1} - u_k) = u_{n+1} - u_1\]Comme un télescope qui se replie sur lui-même — toutes les sections intermédiaires disparaissent.
Plus généralement : \(\displaystyle\sum_{k=a}^{b}(v_{k+1} - v_k) = v_{b+1} - v_a\).
La forme \(v_k - v_{k+1}\) apparaît aussi fréquemment. Au signe près :
\[\sum_{k=1}^{n}(v_k - v_{k+1}) = v_1 - v_{n+1}\]C'est le cas de l'exercice 4 : \(\dfrac{1}{k} - \dfrac{1}{k+1} = v_k - v_{k+1}\) avec \(v_k = \dfrac{1}{k}\).
La question à se poser systématiquement face à une somme : est-ce que le terme général \(u_k\) peut s'écrire comme une différence \(v_{k+1} - v_k\) ? Voici les situations où la réponse est oui.
On voit \(u_k = k\), \(u_k = k^2\), \(u_k = 2k-1\), ou plus généralement un polynôme en \(k\) de degré \(p\).
Remède : par analogie avec la primitive, chercher \(v_k\) de degré \(p+1\) tel que \(v_k - v_{k-1} = u_k\). Monter d'un degré suffit en général — c'est le tâtonnement guidé par l'analogie primitive développé dans l'exercice 11.
En continu, la dérivée de \(x^{p+1}\) est \((p+1)x^p\), donc pour "remonter" de \(x^p\) on essaie \(\dfrac{x^{p+1}}{p+1}\) — c'est une formule exacte.
En discret, c'est différent : l'analogie dit seulement quel degré essayer, pas quelle formule utiliser. Pour trouver \(v_k\) on pose \(v_k = ak^{p+1} + \cdots\) (forme générale de degré \(p+1\)) et on identifie les coefficients.
Exemple : pour \(u_k = 2k-1\) (degré 1), on essaie \(v_k = ak^2 + bk + c\) :
\[v_k - v_{k-1} = ak^2 + bk + c - \bigl(a(k-1)^2 + b(k-1) + c\bigr) = 2ak + (-a+b)\]On identifie avec \(2k - 1\) : \(2a = 2\) donc \(a = 1\), et \(-a+b = -1\) donc \(b = 0\). On obtient \(v_k = k^2\) (la constante \(c\) disparaît).
C'est ainsi qu'on retrouve les formules classiques \(\displaystyle\sum k\), \(\displaystyle\sum k^2\), \(\displaystyle\sum k^3\) par télescopage — sans les apprendre par cœur.
On voit \(\dfrac{1}{k(k+1)}\), \(\dfrac{1}{k(k+1)(k+2)}\), \(\dfrac{1}{(2k-1)(2k+1)}\)…
Remède : décomposition en éléments simples. On cherche \(A, B\) tels que \(\dfrac{1}{k(k+1)} = \dfrac{A}{k} + \dfrac{B}{k+1}\), ce qui donne une différence \(v_k - v_{k+1}\).
Exemple : \(\dfrac{1}{k(k+1)} = \dfrac{1}{k} - \dfrac{1}{k+1}\).
Le terme général est déjà écrit comme une différence :
Remède : on reconnaît directement \(v_{k+1} - v_k\), le télescopage s'applique immédiatement.
On voit \(\dfrac{k}{(k+1)!}\), \(\dfrac{k+2}{2^k}\)…
Remède : on essaie d'écrire \(u_k = f(k+1) - f(k)\) en tâtonnant sur \(f\). Souvent \(f(k) = \dfrac{c}{k!}\) ou \(f(k) = \dfrac{c}{2^k}\).
L'identité suivante est à connaître par cœur :
\[k \cdot k! = (k+1)! - k!\]Elle transforme immédiatement \(\displaystyle\sum_{k=1}^{n} k\cdot k!\) en un télescopage.
La factorielle est un produit, pas une somme — on ne peut donc pas simplifier \((k+1)! - k!\) comme on simplifierait \((k+1)x - x = kx\).
Ce qui marche, c'est de mettre \(k!\) en facteur commun dans le membre de droite :
\[(k+1)! - k! = (k+1)\times k! - 1\times k! = k!\times\bigl((k+1)-1\bigr) = k!\times k = k\cdot k!\]C'est la distributivité classique \(ab - b = b(a-1)\), avec \(b = k!\) et \(a = k+1\). La structure multiplicative de \(k!\) n'intervient pas — on factorise simplement un facteur commun.
Vérification pour \(k = 3\) : \(k\cdot k! = 3\times 6 = 18\) et \((k+1)!-k! = 24-6 = 18\). ✓
Le même principe s'applique aux produits. Si \(u_k = \dfrac{v_{k+1}}{v_k}\), alors :
\[\prod_{k=1}^{n} \frac{v_{k+1}}{v_k} = \frac{v_{n+1}}{v_1}\]Exemple : \(\displaystyle\prod_{k=1}^{n}\dfrac{k+1}{k} = \dfrac{n+1}{1} = n+1\).
On reconnaît le pattern 1 : produit de termes consécutifs au dénominateur. On décompose en éléments simples :
\[\frac{1}{k(k+1)} = \frac{A}{k} + \frac{B}{k+1}\]En réduisant : \(A(k+1) + Bk = 1\). Pour \(k=0\) : \(A = 1\). Pour \(k=-1\) : \(-B = 1\) donc \(B = -1\). Ainsi :
\[\frac{1}{k(k+1)} = \frac{1}{k} - \frac{1}{k+1} = v_k - v_{k+1}\]avec \(v_k = \dfrac{1}{k}\). C'est un télescopage "à l'envers" (\(v_k - v_{k+1}\) au lieu de \(v_{k+1} - v_k\)), donc :
\[S_n = \sum_{k=1}^{n}\left(\frac{1}{k} - \frac{1}{k+1}\right) = \frac{1}{1} - \frac{1}{n+1} = 1 - \frac{1}{n+1} = \frac{n}{n+1}\]On reconnaît le pattern 4. On utilise l'identité \(k \cdot k! = (k+1)! - k!\) :
\[S_n = \sum_{k=1}^{n}\bigl((k+1)! - k!\bigr) = (n+1)! - 1!\ = (n+1)! - 1\]On réécrit le terme général :
\[\ln\!\left(1 + \frac{1}{k}\right) = \ln\!\left(\frac{k+1}{k}\right) = \ln(k+1) - \ln(k)\]On reconnaît le pattern 2 avec \(v_k = \ln k\). Par télescopage :
\[S_n = \sum_{k=1}^{n}\bigl(\ln(k+1) - \ln k\bigr) = \ln(n+1) - \ln(1) = \ln(n+1)\]On reconnaît le pattern 3 : une factorielle au dénominateur. On cherche \(f\) tel que \(\dfrac{k}{(k+1)!} = f(k+1) - f(k)\).
Tâtonnement : on réécrit \(k = (k+1) - 1\) au numérateur :
\[\frac{k}{(k+1)!} = \frac{(k+1) - 1}{(k+1)!} = \frac{1}{k!} - \frac{1}{(k+1)!}\]C'est un télescopage à l'envers avec \(v_k = \dfrac{1}{k!}\). Par télescopage :
\[S_n = \sum_{k=1}^{n}\left(\frac{1}{k!} - \frac{1}{(k+1)!}\right) = \frac{1}{1!} - \frac{1}{(n+1)!} = 1 - \frac{1}{(n+1)!}\]Écrire \(k = (k+1) - 1\) ne se voit pas de gauche à droite — c'est une astuce qu'on apprend à reconnaître. Le réflexe : quand on voit \(\dfrac{k}{k+1}\) ou \(\dfrac{k}{(k+1)!}\), on force \(k = (k+1) - 1\) pour faire apparaître une simplification ou une différence.
Étape 1 — Identifier le pattern : \(2k-1\) est un polynôme de degré 1 — c'est le pattern 0. On cherche \(v_k\) de degré 2 tel que \(v_k - v_{k-1} = 2k-1\).
Étape 2 — Trouver \(v_k\) par identification : on pose \(v_k = ak^2 + bk + c\) :
\[v_k - v_{k-1} = ak^2 + bk + c - \bigl(a(k-1)^2 + b(k-1) + c\bigr) = 2ak + (-a+b)\]On identifie avec \(2k-1\) : \(2a = 2\) donc \(a=1\), et \(-a+b=-1\) donc \(b=0\). On obtient \(v_k = k^2\).
Vérification : \(k^2 - (k-1)^2 = (k-(k-1))(k+(k-1)) = 2k-1\) ✓
Étape 3 — Télescopage sans déployer : on écrit \(2k-1 = k^2 - (k-1)^2\) et on sépare par linéarité :
\[S_n = \sum_{k=1}^{n}k^2 - \sum_{k=1}^{n}(k-1)^2\]Dans la deuxième somme, on pose \(j = k-1\) :
On fait apparaître les parties communes — les termes de \(j=1\) à \(j=n-1\) sont présents dans les deux sommes et s'annulent :
\[S_n = \left(\sum_{k=1}^{n-1}k^2 + n^2\right) - \left(0^2 + \sum_{j=1}^{n-1}j^2\right) = n^2 - 0 = n^2\]Pour \(n=3\) : \(1 + 3 + 5 = 9 = 3^2\) ✓. La somme des \(n\) premiers entiers impairs est toujours un carré parfait — c'est un résultat beau et non évident a priori.
Le dénominateur \(\sqrt{k}+\sqrt{k+1}\) contient des racines carrées — elles sont gênantes et on voudrait les éliminer.
On connaît l'identité \((a-b)(a+b) = a^2 - b^2\). On reconnaît \(\sqrt{k}+\sqrt{k+1}\) comme le facteur \((a+b)\) avec \(a = \sqrt{k}\) et \(b = \sqrt{k+1}\). On multiplie donc numérateur et dénominateur par \((\sqrt{k+1}-\sqrt{k})\) :
\[\frac{1}{\sqrt{k}+\sqrt{k+1}} \times \frac{\sqrt{k+1}-\sqrt{k}}{\sqrt{k+1}-\sqrt{k}} = \frac{\sqrt{k+1}-\sqrt{k}}{(\sqrt{k+1})^2-(\sqrt{k})^2} = \frac{\sqrt{k+1}-\sqrt{k}}{1} = \sqrt{k+1}-\sqrt{k}\]Les racines ont disparu ! On reconnaît le pattern 2 — différence explicite — avec \(v_k = \sqrt{k}\). Par télescopage :
\[S_n = \sum_{k=1}^{n}\bigl(\sqrt{k+1}-\sqrt{k}\bigr) = \sqrt{n+1} - \sqrt{1} = \sqrt{n+1} - 1\]Le terme \(k(k-1)(k-2)\) est un produit de 3 entiers consécutifs — degré 3. Par l'analogie primitive, on cherche \(v_k\) de degré 4. En s'inspirant de l'exercice 11, on essaie \(v_k = k(k-1)(k-2)(k-3)\).
On calcule \(v_{k+1} - v_k\) :
\[v_{k+1} - v_k = (k+1)k(k-1)(k-2) - k(k-1)(k-2)(k-3)\] \[= k(k-1)(k-2)\bigl[(k+1)-(k-3)\bigr] = 4\cdot k(k-1)(k-2)\]Donc \(k(k-1)(k-2) = \dfrac{v_{k+1}-v_k}{4}\). Par télescopage :
\[S_n = \frac{1}{4}\sum_{k=1}^{n}(v_{k+1}-v_k) = \frac{v_{n+1}-v_1}{4} = \frac{(n+1)n(n-1)(n-2) - 0}{4}\] \[S_n = \frac{(n+1)n(n-1)(n-2)}{4}\]Cette méthode se généralise : \(\displaystyle\sum_{k=1}^{n} k(k-1)\cdots(k-p+1) = \frac{(n+1)n(n-1)\cdots(n-p+1)}{p+1}\). C'est l'analogue discret de \(\int x^p\,dx = \dfrac{x^{p+1}}{p+1}\).
On cherche à écrire \(F_k\) comme une différence. La relation de récurrence \(F_{n+2} = F_{n+1} + F_n\) donne directement :
\[F_k = F_{k+2} - F_{k+1}\]C'est le pattern 2 — différence explicite — avec \(v_k = F_{k+1}\). Par télescopage :
\[\sum_{k=0}^{n} F_k = \sum_{k=0}^{n}(F_{k+2}-F_{k+1}) = F_{n+2} - F_1 = F_{n+2} - 1\]\(F_0+F_1+F_2+F_3+F_4 = 0+1+1+2+3 = 7\) et \(F_6 - 1 = 8 - 1 = 7\) ✓
Le terme \(k\cdot 2^k\) mélange un polynôme (degré 1) et une exponentielle — le pattern 0 seul ne suffit pas. On cherche \(v_k = (ak+b)\cdot 2^k\) et on identifie.
On calcule \(v_{k+1} - v_k\) :
\[v_{k+1} - v_k = (a(k+1)+b)\cdot 2^{k+1} - (ak+b)\cdot 2^k = 2^k\bigl[2a(k+1)+2b - ak - b\bigr] = 2^k\bigl[ak + (2a+b)\bigr]\]On identifie avec \(k\cdot 2^k\) : \(a = 1\) et \(2a+b = 0\) donc \(b = -2\). Donc \(v_k = (k-2)\cdot 2^k\).
Vérification : \(v_{k+1} - v_k = (k-1)\cdot 2^{k+1} - (k-2)\cdot 2^k = 2^k(2k-2-k+2) = k\cdot 2^k\) ✓
Par télescopage :
\[S_n = \sum_{k=1}^{n}(v_{k+1}-v_k) = v_{n+1} - v_1 = (n-1)\cdot 2^{n+1} - (-1)\cdot 2 = (n-1)\cdot 2^{n+1} + 2\]1. Calcul des premiers termes :
Attention — la borne inférieure de la somme intérieure en \(k\) est \(j\), pas 1. Elle bouge avec \(j\) : quand \(j\) augmente, la fenêtre de \(k\) se rétrécit par le bas.
| \(j\) | Somme intérieure \(\displaystyle\sum_{k=j}^{n}\frac{1}{k}\) |
|---|---|
| \(j=1\) | \(\dfrac{1}{1}+\dfrac{1}{2}+\cdots+\dfrac{1}{n}\) — toute la somme harmonique |
| \(j=2\) | \(\dfrac{1}{2}+\dfrac{1}{3}+\cdots+\dfrac{1}{n}\) — on perd le premier terme |
| \(j=3\) | \(\dfrac{1}{3}+\dfrac{1}{4}+\cdots+\dfrac{1}{n}\) — on perd les deux premiers |
Pour \(n=3\) :
De même : \(S_1 = 1\), \(S_2 = 3\), \(S_3 = 6\).
2. Conjecture : on reconnaît les nombres triangulaires \(1, 3, 6, \ldots\) — ce sont les valeurs de \(\dfrac{n(n+1)}{2}\). On conjecture :
\[S_n = \frac{n(n+1)}{2}\]3. Démonstration par changement d'ordre : on visualise la somme double dans un tableau triangulaire :
| \(k=1\) | \(k=2\) | \(k=3\) | |
|---|---|---|---|
| \(j=1\) | \(\frac{2\cdot1-1}{1}\) | \(\frac{2\cdot1-1}{2}\) | \(\frac{2\cdot1-1}{3}\) |
| \(j=2\) | — | \(\frac{2\cdot2-1}{2}\) | \(\frac{2\cdot2-1}{3}\) |
| \(j=3\) | — | — | \(\frac{2\cdot3-1}{3}\) |
On somme colonne par colonne : pour la colonne \(k\) fixé, \(j\) varie de 1 à \(k\). Le terme général est \(\dfrac{2j-1}{k}\), donc la somme de la colonne \(k\) vaut :
\[\frac{1}{k}\sum_{j=1}^{k}(2j-1)\]Or \(\displaystyle\sum_{j=1}^{k}(2j-1) = k^2\) — c'est la somme des \(k\) premiers entiers impairs, démontrée dans l'exercice 8. Donc la colonne \(k\) vaut \(\dfrac{k^2}{k} = k\).
En sommant toutes les colonnes :
\[S_n = \sum_{k=1}^{n} k = \frac{n(n+1)}{2} \quad\blacksquare\]Stratégie : on ne calcule pas \(H_n\) exactement — on le minore par une quantité qui tend vers \(+\infty\). Pour cela on regroupe les termes en blocs de taille doublante :
\[H_{2^n} = 1 + \underbrace{\frac{1}{2}}_{1 \text{ terme}} + \underbrace{\frac{1}{3}+\frac{1}{4}}_{2 \text{ termes}} + \underbrace{\frac{1}{5}+\frac{1}{6}+\frac{1}{7}+\frac{1}{8}}_{4 \text{ termes}} + \cdots\]Minoration de chaque bloc : le bloc \(k\) va de \(\dfrac{1}{2^{k-1}+1}\) à \(\dfrac{1}{2^k}\). Il contient \(2^k - 2^{k-1} = 2^{k-1}\) termes, et le plus petit est \(\dfrac{1}{2^k}\). Donc :
\[\sum_{j=2^{k-1}+1}^{2^k}\frac{1}{j} \geq 2^{k-1} \times \frac{1}{2^k} = \frac{1}{2}\]Pourquoi \(2^{k-1}\) termes ? Le nombre de termes de \(2^{k-1}+1\) à \(2^k\) est \(2^k - (2^{k-1}+1) + 1 = 2^{k-1}\) — on retrouve la formule du nombre de termes (section 0.2).
Conclusion : en sommant les \(n\) blocs :
\[H_{2^n} = 1 + \sum_{k=1}^{n}\underbrace{\sum_{j=2^{k-1}+1}^{2^k}\frac{1}{j}}_{\geq \frac{1}{2}} \geq 1 + \sum_{k=1}^{n}\frac{1}{2} = 1 + \frac{n}{2}\]Comme \(1 + \dfrac{n}{2} \to +\infty\) et que \(H_n\) est croissante, on conclut \(H_n \to +\infty\).
La série harmonique diverge, mais très lentement. Pour que \(H_n \geq 100\), il faut \(n \approx e^{100} \approx 10^{43}\) — un nombre astronomique. En pratique, on ne "voit" jamais la divergence.
En revanche \(\displaystyle\sum \frac{1}{k^2}\) converge (vers \(\dfrac{\pi^2}{6}\)) — la différence entre \(\frac{1}{k}\) et \(\frac{1}{k^2}\) est subtile mais décisive.
Une somme double est une somme de sommes. On note :
\[\sum_{i=1}^{m}\sum_{j=1}^{n} a_{i,j}\]On lit : "pour chaque \(i\), on calcule \(\displaystyle\sum_{j=1}^{n} a_{i,j}\), puis on additionne sur \(i\)."
On peut se représenter \(a_{i,j}\) comme la case à la ligne \(i\) et la colonne \(j\) d'un tableau. La somme double c'est la somme de toutes les cases.
| \(j=1\) | \(j=2\) | \(j=3\) | |
|---|---|---|---|
| \(i=1\) | \(a_{1,1}\) | \(a_{1,2}\) | \(a_{1,3}\) |
| \(i=2\) | \(a_{2,1}\) | \(a_{2,2}\) | \(a_{2,3}\) |
Sommer ligne par ligne ou colonne par colonne revient au même.
Si les bornes ne dépendent pas des indices, on peut intervertir librement l'ordre des sommations :
\[\sum_{i=1}^{m}\sum_{j=1}^{n} a_{i,j} = \sum_{j=1}^{n}\sum_{i=1}^{m} a_{i,j}\]C'est simplement la commutativité de l'addition — l'ordre dans lequel on additionne les cases ne change pas le résultat.
En analyse, une intégrale double \(\displaystyle\int_a^b\!\int_c^d f(x,y)\,dy\,dx\) c'est comme une somme double : on "additionne" \(f(x,y)\) sur tous les couples \((x,y)\) d'un rectangle. Le théorème de Fubini continu dit qu'on peut intégrer dans n'importe quel ordre :
\[\int_a^b\!\int_c^d f(x,y)\,dy\,dx = \int_c^d\!\int_a^b f(x,y)\,dx\,dy\]Notre version discrète est l'analogue exact — mais plus simple, car pour des sommes finies l'interversion est toujours valable sans condition. La version continue demande des conditions de régularité sur \(f\) (pas nécessairement vérifiées pour des intégrales infinies).
Si le terme général se factorise en \(a_{i,j} = u_i \cdot v_j\), alors :
\[\sum_{i=1}^{m}\sum_{j=1}^{n} u_i v_j = \left(\sum_{i=1}^{m} u_i\right)\!\left(\sum_{j=1}^{n} v_j\right)\]Très utile pour calculer le carré d'une somme : \(\left(\displaystyle\sum_{k=1}^{n} u_k\right)^2 = \displaystyle\sum_{i=1}^{n}\sum_{j=1}^{n} u_i u_j\).
Ligne par ligne :
Colonne par colonne :
On vérifie aussi par le produit : \(\left(\displaystyle\sum_{i=1}^{2} i\right)\!\left(\displaystyle\sum_{j=1}^{3} j\right) = 3 \times 6 = 18\) ✓
Quand les bornes sont fixes (indépendantes des indices), l'interversion est immédiate. C'est le cas le plus simple — la proposition III.2 s'applique directement.
Le terme général \(\dfrac{i}{j}\) se factorise en \(u_i \cdot v_j\) avec \(u_i = i\) et \(v_j = \dfrac{1}{j}\). On applique la proposition sur le produit de deux sommes :
\[S = \sum_{i=1}^{n}\sum_{j=1}^{n} \frac{i}{j} = \left(\sum_{i=1}^{n} i\right)\!\left(\sum_{j=1}^{n} \frac{1}{j}\right) = \frac{n(n+1)}{2} \cdot H_n\]où \(H_n = \displaystyle\sum_{j=1}^{n}\dfrac{1}{j}\) est le \(n\)-ième nombre harmonique.
Le cas intéressant — et le plus fréquent en pratique — est celui où les bornes de la somme intérieure dépendent de l'indice extérieur :
\[\sum_{i=1}^{n}\sum_{j=1}^{i} a_{i,j}\]On ne somme plus sur un rectangle mais sur un triangle :
| \(j=1\) | \(j=2\) | \(j=3\) | \(j=4\) | |
|---|---|---|---|---|
| \(i=1\) | ● | |||
| \(i=2\) | ● | ● | ||
| \(i=3\) | ● | ● | ● | |
| \(i=4\) | ● | ● | ● | ● |
Pour changer l'ordre, on se demande : pour un \(j\) fixé, quels sont les \(i\) qui ont une case cochée ?
La colonne \(j\) a des cases pour \(i = j, j+1, \ldots, n\). Donc \(i\) va de \(j\) à \(n\).
Avant : on fixe \(i\), \(j\) va de \(1\) à \(i\).
Après : on fixe \(j\), \(i\) va de \(j\) à \(n\).
1. Ligne par ligne : pour \(i\) fixé, \(j\) va de \(1\) à \(i\) et le terme général \(\dfrac{1}{i}\) ne dépend pas de \(j\) :
\[\sum_{j=1}^{i} \frac{1}{i} = i \cdot \frac{1}{i} = 1\]Donc :
\[S = \sum_{i=1}^{n} 1 = n\]2. Changement d'ordre : par la formule triangulaire, pour \(j\) fixé, \(i\) va de \(j\) à \(n\) :
\[S = \sum_{j=1}^{n}\sum_{i=j}^{n} \frac{1}{i} = \sum_{j=1}^{n}\left(\frac{1}{j} + \frac{1}{j+1} + \cdots + \frac{1}{n}\right) = \sum_{j=1}^{n}(H_n - H_{j-1})\]où l'on a utilisé \(\displaystyle\sum_{i=j}^{n}\dfrac{1}{i} = H_n - H_{j-1}\) (avec la convention \(H_0 = 0\)).
Donc :
\[S = \sum_{j=1}^{n}(H_n - H_{j-1}) = nH_n - \sum_{j=1}^{n} H_{j-1} = nH_n - \sum_{j=0}^{n-1} H_j\]3. Identité : les deux expressions de \(S\) sont égales :
\[nH_n - \sum_{j=0}^{n-1} H_j = n\]Soit :
\[\sum_{j=0}^{n-1} H_j = nH_n - n = n(H_n - 1)\]Ou encore, en réindexant avec \(k = j+1\) :
\[\sum_{k=1}^{n} H_k = (n+1)H_n - n\]L'identité \(\displaystyle\sum_{k=1}^{n} H_k = (n+1)H_n - n\) est un résultat classique. Le changement d'ordre triangulaire en est la démonstration la plus élégante — bien plus simple qu'une récurrence.
Vérifie pour \(n=3\) : \(H_1 + H_2 + H_3 = 1 + \frac{3}{2} + \frac{11}{6} = \frac{6+9+11}{6} = \frac{26}{6}\) et \(4\cdot\frac{11}{6} - 3 = \frac{44}{6} - \frac{18}{6} = \frac{26}{6}\). ✓
Ligne par ligne :
Colonne par colonne (après changement d'ordre, \(i\) va de \(j\) à \(4\)) :
On retrouve la somme de Gauss — ce n'est pas un hasard : \(\displaystyle\sum_{i=1}^{n}\sum_{j=1}^{i} 1 = \sum_{i=1}^{n} i = \frac{n(n+1)}{2}\).
Ligne par ligne :
Colonne par colonne (après changement d'ordre, \(i\) va de \(j\) à \(3\)) :
Ligne par ligne : pour \(i\) fixé, la somme intérieure \(\displaystyle\sum_{j=1}^{i} j\) est la somme de Gauss :
\[\sum_{j=1}^{i} j = \frac{i(i+1)}{2}\]Donc :
\[S = \sum_{i=1}^{n} \frac{i(i+1)}{2} = \frac{1}{2}\sum_{i=1}^{n}(i^2 + i) = \frac{1}{2}\left(\sum_{i=1}^{n} i^2 + \sum_{i=1}^{n} i\right)\]En utilisant les formules connues \(\displaystyle\sum_{i=1}^{n} i = \dfrac{n(n+1)}{2}\) et \(\displaystyle\sum_{i=1}^{n} i^2 = \dfrac{n(n+1)(2n+1)}{6}\) :
\[S = \frac{1}{2}\left(\frac{n(n+1)(2n+1)}{6} + \frac{n(n+1)}{2}\right) = \frac{n(n+1)}{2}\left(\frac{2n+1}{6} + \frac{1}{2}\right) = \frac{n(n+1)}{2}\cdot\frac{2n+4}{6}\] \[S = \frac{n(n+1)(n+2)}{6}\]Voie 2 — Par télescopage sur \(i(i+1)\) (sans utiliser les formules connues)
On veut téléscoper \(\displaystyle\sum_{i=1}^{n} i(i+1)\). On cherche \(v_i\) tel que \(v_{i+1} - v_i = i(i+1)\).
Essai naïf — On essaie \(v_i = i(i+1)\) (même degré que le terme) :
\[v_{i+1} - v_i = (i+1)(i+2) - i(i+1) = (i+1)\bigl[(i+2)-i\bigr] = 2(i+1)\]Ce n'est pas \(i(i+1)\) — on obtient \(2(i+1)\), un degré en dessous. Cela confirme que la différence descend d'un degré : pour obtenir un produit de degré \(p\), il faut partir d'un produit de degré \(p+1\).
Essai 1 — On essaie \(v_i = i(i+1)(i+2)\) (degré 3, en partant de \(i\)) :
\[v_{i+1} - v_i = (i+1)(i+2)(i+3) - i(i+1)(i+2) = (i+1)(i+2)\bigl[(i+3)-i\bigr] = 3(i+1)(i+2)\]Ce n'est pas \(i(i+1)\) — on obtient \((i+1)(i+2)\), décalé d'un cran. Le produit commence trop haut.
Observation : pour que \(i(i+1)\) apparaisse en facteur dans \(v_{i+1} - v_i\), il faut que les deux termes \(v_{i+1}\) et \(v_i\) aient \(i(i+1)\) en commun. Cela suggère de "décaler vers le bas" et d'essayer \(v_i = (i-1)i(i+1)\).
Essai 2 — On essaie \(v_i = (i-1)i(i+1)\) :
\[v_{i+1} - v_i = i(i+1)(i+2) - (i-1)i(i+1) = i(i+1)\bigl[(i+2)-(i-1)\bigr] = 3\cdot i(i+1) \quad ✓\]Donc \(i(i+1) = \dfrac{v_{i+1}-v_i}{3}\). Par télescopage :
\[\sum_{i=1}^{n} i(i+1) = \frac{1}{3}\sum_{i=1}^{n}(v_{i+1}-v_i) = \frac{v_{n+1}-v_1}{3} = \frac{n(n+1)(n+2) - 0}{3} = \frac{n(n+1)(n+2)}{3}\]D'où :
\[S = \frac{1}{2}\sum_{i=1}^{n} i(i+1) = \frac{n(n+1)(n+2)}{6} \quad\checkmark\]L'essai 1 nous a appris qu'il fallait "décaler vers le bas". L'intuition profonde : le télescopage est l'analogue discret de la primitive. Tout comme \(\int x^p\,dx = \dfrac{x^{p+1}}{p+1}\) monte d'un degré, pour téléscoper un produit de \(p\) termes consécutifs on prend un produit de \(p+1\) termes consécutifs — mais en commençant par \((i-1)\) pour que \(i(i+1)\cdots\) apparaisse en facteur commun.