Multi-Command Siri: Ein Schritt zu schlauerer Assistenz
Heute verarbeitet Siri jeweils einen Befehl.Das bevorstehende Update ändert das.Nutzer werden in der Lage sein, mehrstufige Anweisungen in einem Atemzug zu geben, indem sie Siri beispielsweise bitten, eine Wegbeschreibung zu einem Restaurant abzurufen und diese gleichzeitig per Nachricht an einen Freund weiterzuleiten.Die Funktion verspricht, die Interaktionen mit dem Assistenten deutlich flüssiger und effizienter zu machen.Die Verbesserungen gehen über die reine Multi-Command-Verarbeitung hinaus.Das aktualisierte Siri wird ein stärkeres Bewusstsein für den persönlichen Kontext haben, indem es auf Nutzerpräferenzen und Gewohnheiten zurückgreift, um relevantere Antworten zu liefern.Es wird außerdem die Fähigkeit erhalten, Inhalte auf dem Bildschirm zu lesen, das Web zu durchsuchen, um Informationen zusammenzufassen, und könnte schließlich die Bildgenerierung unterstützen, Fähigkeiten, die es in einen engeren Wettbewerb mit OpenAIs ChatGPT, Anthropics Claude und Googles Gemini bringen würden.Alphabets Gemini treibt das Upgrade an
Die Grundlage für diese neuen Fähigkeiten bildet das Gemini-KI-Modell von Alphabet, das Apple in Siris Framework integriert hat.Die Partnerschaft stattet Siri mit fortschrittlichem Verständnis natürlicher Sprache und der nötigen Rechenleistung aus, um komplexe, mehrstufige Anfragen zu bearbeiten.Für Apple stellt dies eine strategische Neuausrichtung dar, die teilweise durch die verhaltene Aufnahme der ersten Apple Intelligence-Einführung im Jahr 2024 motiviert ist.Indem Apple auf Alphabets KI-Expertise setzt, wettet das Unternehmen darauf, die Entwicklung von Siri beschleunigen und mit den schnellen Fortschritten der Branche Schritt halten zu können.Eine eigenständige Chatbot-App mit frischem Design
Über die Aufrüstung von Siris Kern-Engine hinaus baut Apple eine völlig neue eigenständige Siri-App.Laut dem Bloomberg-Journalisten Mark Gurman wird die Anwendung bereits auf iPhone-, iPad- und Mac-Geräten getestet, was darauf hindeutet, dass Apple einen breiten, einheitlichen Start über sein Ökosystem plant.Die App wird eine Chat-Schnittstelle bieten, die eng an Apples eigene Messages-App angelehnt ist und sich an bestehenden KI-Chat-Apps orientiert.Eine neu gestaltete Präsenz in der Dynamic Island des iPhones, dem interaktiven Benachrichtigungsstreifen, der in den jüngsten iPhone-Modellen eingeführt wurde, ist ebenfalls Teil des Plans und signalisiert eine bewusste Abkehr von Siris traditioneller rein sprachlicher Identität hin zu etwas Visuellerem und Konversationellerem.Apples dedizierte Siri-App wird auf iPhone, iPad und Mac getestet, schrieb Gurman.Es klingt so, als würde sie ähnlich wie Messages funktionieren und sich an bestehenden KI-Chat-Apps orientieren.Zeitplan und mögliche Verzögerungen
Apple wird voraussichtlich die Multi-Command-Funktionen und die neue Chatbot-App auf der WWDC 2026 vorstellen, die am 8. Juni beginnt.Die Kern-Updates sind an die Veröffentlichung von iOS 27, iPadOS 27 und macOS 27 später in diesem Jahr gebunden.Die Einführung könnte jedoch nicht sofort flächendeckend erfolgen.Einige Funktionen könnten schrittweise eingeführt werden, und bestimmte Fähigkeiten könnten erst im Frühjahr 2027 verfügbar sein, ein Zeitplan, der, falls er eintritt, die Nutzerakzeptanz und Apples Wettbewerbsposition kurzfristig belasten könnte.Rennen, um im KI-Bereich aufzuholen
Apples Vorstoß spiegelt eine breitere Realität der Branche wider.Nutzer erwarten heute, dass ihre digitalen Assistenten komplexe, vielschichtige Aufgaben reibungslos bewältigen.Die Integration von Gemini markiert eine bemerkenswerte Allianz zwischen zwei der weltweit größten Technologieunternehmen, die Apples Hardware-Ökosystem mit Alphabets KI-Fähigkeiten kombiniert.Gemeinsam stellen das Multi-Command-Siri und die eigenständige Chatbot-App das bisher deutlichste Signal von Apple dar, dass das Unternehmen aggressiv und auf Augenhöhe mit den KI-Plattformen konkurrieren will, die es in den letzten Jahren überholt haben.