Amazon investiert Milliarden in KI-Chips zur Konkurrenz von Nvidia
- Amazon entwickelt eigene KI-Chips, um Nvidia Konkurrenz zu machen und Kosten zu senken.
- Investitionen in Technologie und Infrastruktur steigen 2024 auf 75 Milliarden Dollar.
Amazon verstärkt seine Bemühungen im Halbleitermarkt mit neuen KI-Chips, um die Abhängigkeit von Nvidia zu verringern und die Effizienz der eigenen Cloud-Infrastruktur zu steigern. Die in Austin ansässige Annapurna Labs, die Amazon 2015 erwarb, entwickelte die neue Chip-Generation „Trainium 2“.
„Trainium 2“ ist speziell für KI-Trainings konzipiert und wird im Dezember vorgestellt. Erste Testkunden sind Anthropic, Databricks und Deutsche Telekom. Amazon zielt darauf ab, eine kostengünstigere Alternative zu Nvidia zu bieten, mit eigenen Chips wie „Inferentia“, die bereits 40 Prozent günstiger sind.
Die Investitionen von Amazon in Technologie und Infrastruktur steigen drastisch. Für 2024 sind rund 75 Milliarden Dollar geplant, deutlich mehr als die 48,4 Milliarden des Vorjahres. Auch andere Tech-Giganten wie Microsoft und Google investieren in eigene Chips, um die Anforderungen der KI-Revolution zu erfüllen.
Daniel Newman von der Futurum Group betont, dass Cloud-Anbieter durch eigene Chip-Entwicklung Kostenvorteile und mehr Kontrolle erlangen. Der Vorstoß gegen Nvidia zeigt jedoch bisher nur begrenzte Wirkung, da Nvidia im letzten Quartal 26,3 Milliarden Dollar Umsatz mit KI-Datenzentrumschips erzielte.