1.6.2. Zum Zusammenhang zwischen absoluter und bedingter Konvergenz.

SATZ 1.6.3. Konvergiert die Reihe k=1a k absolut, so konvergiert diese Reihe auch bedingt.

Konvergiert das uneigentliche Integral 0f(x)dx absolut, so konvergiert 0f(x)dx auch bedingt.

Wir beweisen die Aussage im Fall der Reihe und verwenden das Cauchy-Kriterium (1.2.1.1). Aus der Dreiecksungleichung folgt

k=m+1na k k=m+1na k = k=m+1na k. (1.6.2.1)

Konvergiert k=1a k absolut, d.h. konvergiert k=1a k, dann wird die rechte Seite von (1.6.2.1) nach (1.2.1.1) kleiner als jedes vorgegebene ε > 0 für m n Nε. Gleiches gilt damit für die linke Seite der Ungleichung, woraus wiederum nach dem Cauchy-Kriterium die bedingte Konvergenz folgt.

AUFGABE 1.6.4. Führen Sie den Beweis für das uneigentliche Integral 0f(x)dx. Erstreckt sich der Satz auch auf alle anderen Typen unbestimmter Integrale?

 

AUFGABE 1.6.5. Beweisen Sie, daß die Reihe

k=1(1)k+1 k = 1 1 2 + 1 3 1 4 ±

bedingt, aber nicht absolut konvergiert. Analysieren Sie die Taylorreihe für die Funktion f(x) = ln(1 + x) im Punkt x0 = 0 und zeigen Sie, daß der Restterm rn(x0,h) d ieser Reihe für x0 = 0, h = 1 und n verschwindet. Schließen Sie daraus, daß

k=1(1)k+1 k = 1 1 2 + 1 3 1 4 ± = f(1) = ln 2.

Warum genügt es i.A. nicht, im letzten Schritt nur die Konvergenz der Taylorreihe festzustellen?