High Performance MySQL - Optimierung, Datensicherung, Replikation & Lastverteilung

Baron Schwartz, Peter Zaitsev, Vadim Tkachenko, Jeremy D. Zawodny

Buch, Gebunden
Ausgabe vom 27. Febr. 2009
Verkaufsrang: 103102 (je kleiner desto beliebter)
EAN/ISBN: 9783897218895
ASIN: 3897218895 (Amazon-Bestellnummer)
High Performance MySQL - Optimierung, Datensicherung, Replikation & Lastverteilung - Baron Schwartz, Peter Zaitsev, Vadim Tkachenko, Jeremy D. Zawodny
Aus der Amazon.de-Redaktion
MySQL kann inzwischen ja fast jeder, der eine kleine Website betreibt: OpenSource, zusammen mit PHP dynamisch und insgesamt einfach zu erlernen und zu nutzen; auch Anleitungen zum Einsatz gibt es en mass - schwierig wird es jedoch mit den Informationen, wenn es um den fortgeschrittenen Profieinsatz geht, Hochverfügbarkeit, Lastverteilung, Sicherheit und Datenintegrität zentrale Themen werden. Nun haben sich sechs Experten zusammengesetzt und basierend auf ihrem Know-How und ihrer Erfahrung zur Abwechslung mal ein reines Profi-MySQL-Buch geschrieben, das sie nun in der 2. Auflage auf MySQL 5.0 und 5.1 aktualisiert und erweitert haben.
Der Schwerpunkt in der 2. Auflage hat sich mit dem Einsatz und MySQL selbst weiter entwickelt: Zuverlässigkeit und Korrektheit ist nun, dank zunehmendem Unternehmens- und Internet-Hochlast-Einsatz, ebenso wichtig wie Performance. Kurzum MySQL ist erwachsen geworden und High Performance MySQL ist mit gewachsen.
Los geht es mit einem Einblick in die Grundlagen: die MySQL-Architektur - Vorwissen, das manch Profi wohl schon intus hat - wem es fehlt, der hole es sich hier, denn für das weitere Buchverständnis ist es unverzichtbar. Dann geht es weiter mit dem grundsätzlichen SQL-Werkzeug für den Profialltag: Benchmarking, Profiling, Schema-Optimierung und Indizierung, Optimierung der Abfrageleistung bis hin zu den erweiterten MySQL-Funktionen (Abfrage Cache, gespeicherte Prozeduren, Trigger, Zeichensätze etc.). Interessant sind dann auch die Folgekapitel, in denen die Autoren zeigen, wie sich laufende Systeme verbessern und optimieren lassen. Als nächstes Replikation, also die die automatische Datenkopie auf einen anderen Server verknüpft mit Skalierung und Hochverfügbarkeit. Und damit nichts verloren, geht noch ein paar Kapitel zur Zuverlässigkeit: Backup und Wiederherstellung sowie Sicherheit. -textico.de/Wolfgang Treß