Die neuen iPhone-Modelle werden von Apples „A12 Bionic“, einem SoC (System on a Chip) angetrieben, das im Vergleich zur Vorgängergeneration 15 Prozent schneller arbeitet, jedoch 50 Prozent weniger Energie benötigt.
Die wichtigsten Bestandteile des auf dem ARMv8-A-Chip basierenden Systems sind CPU, GPU und die „Neural Engine“.
Die Prozessoreinheit besteht dabei aus sechs Rechenkernen, von denen zwei auf den Namen „Vortex“ hören und so genannte „High Performance Cores“ für anspruchsvolle Aufgaben sind, während die anderen vier „High-Efficiency Cores“ sind, die für die konstant anfallenden Rechenoperationen zuständig sind.
Die Grafikeinheit verfügt über vier eigene Rechenkerne, die bis zu 50 Prozent schneller arbeiten als die des A11-Chips aus dem Vorjahr.
Besonders ins Zeug gelegt hat sich Apple bei der Weiterentwicklung der „Neural Engine“. Diese schafft nun atemberaubende fünf Billionen Rechenoperationen – pro Sekunde. Der A11 kam hier auf „nur“ 600 Milliarden.
„Neural Engine“ ist dabei Apples Name für „Machine Learning“. Machine Learning sorgt dafür, dass das iPhone Muster erkennen, Vorhersagen treffen und – fast schon menschlich – aus Erfahrungen lernen kann.
Aktuell kommt die Technik vor allem AR-Anwendungen, dem Kamerasystem und der Fotomediathek zugute.
Der A12 wird für Apple von TSMC im 7-Nanometer- Verfahren gefertigt. Apple ist der erste Hersteller, der diese Technologie in einem Smartphone zum Einsatz bringt.