Zurück

Apple deutet AI um

10. Juni 2024

Das ist mal eine Ansage, das Kürzel “AI” für sich zu beanspruchen - Apple Intelligence statt Artificial Intelligence. Und dann noch ein genialer Claim: “AI for the rest of us”. So sind wir es von Apple gewöhnt. Gewöhnt sind wir allerdings auch, dass Unternehmen bei ihren Produktvorstellungen fantastische Beispiele zeigen und die Realität dann ganz anders aussieht. Vor allem Google hat das schon ein paar Mal unter Beweis gestellt. Deshalb schreiben wir nicht gerne über Produkte oder Features, die noch nicht da sind. Aber an Apple kommen wir natürlich nicht vorbei. 

Was bei uns am meisten von der Präsentation hängen geblieben ist:

  1. Die Abkehr von der App hin zum Use-Case: Ich habe etwas im Kopf, was ich machen möchte, und ich sage es meinem iPhone. Es kümmert sich um den Rest. Das ist wesentlich näher dran an der Idealvorstellung des Umgangs mit einem intelligenten Gerät als die Chatbots und anderen Tools, die uns momentan zur Verfügung stehen. Es ist der intelligente Agent, den auch andere Anbieter schon beschrieben haben, aber niemand hat ihn bislang so konkretisiert, wie es Apple getan hat.
  2. Wie das Thema Datenschutz verkauft wird: Apple adressiert das Thema von sich aus - nicht erst auf Nachfrage. Alles soll lokal passieren, und wenn das nicht möglich ist, dann in einer Apple Cloud, in der die Anfragen zwar verarbeitet aber nicht gespeichert werden. Niemand soll Zugang zu dieser Cloud haben und das soll auch von Externen überprüft werden können. Es klingt nach einem stimmigen Konzept. Über Hintertüren lässt sich derzeit nur spekulieren. Vielleicht ist es naiv, aber wir sollten Apple die Chance geben uns zu überzeugen, dass sie es ernst meinen. Einen Schwachpunkt gibt es auf jeden Fall. Da die Sprachmodelle von Apple noch nicht so ausgereift sind, haben sie OpenAI mit ins Boot geholt. Nach expliziter vorheriger Zustimmung können Nutzer*innen mit deren Sprachmodell kommunizieren. Und für diese Kommunikation gelten die üblichen Regeln, wobei momentan unklar ist, wie es in der Praxis aussieht. OpenAIs CIO hat zum wiederholten Mal keine gute Figur abgegeben, als sie dazu befragt wurde, wie mit diesen Nutzerdaten umgegangen wird. Bei ChatGPT ist es relativ einfach und inzwischen auch nicht mehr von Nachteil, der Nutzung der eigenen Eingaben zu Trainingszwecken zu widersprechen. Wir werden genau hingucken, wie das auf dem iPhone und den anderen Apple-Geräten ist.

Die Ankündigungen

Apple integriert zahlreiche KI-Funktionen in iOS, iPadOS und MacOS, welche eine bessere personalisierte Erfahrung bieten sollen. Apple Intelligence kann gesprochene Worte verstehen, Protokolle verfassen, Bilder erzeugen und persönliche Kontexte erfassen. Wie bei anderen auch ist die Textverarbeitung ein zentraler Baustein der KI. Sie wird in Apps wie Mail, Notizen, Safari, Pages, Keynote und auch in Anwendungen anderer Anbieter verfügbar sein. Nutzer*innen können Texte verfassen, die Tonalität und den Stil ändern oder die Rechtschreibung korrigieren lassen. Zudem gibt es die Möglichkeit, lokal Bilder und eigene Emojiis zu erzeugen.

Siri wird zu dem, was wir uns alle erhofft haben. Es kann natürliche Sprache besser verarbeiten und bei Interaktionen beispielsweise auch den Kontext behalten, wenn sich Nutzer*innen korrigieren. Siri soll auch den Kontext des Geräts zukünftig erkennen können. Ähnlich wie Microsofts Recall soll es auf den Bildschirm “gucken” können, um diese Informationen mit in das Gespräch einzubeziehen. Siri und die übrigen Apps können auch OpenAIs Sprachmodell nutzen, das aber nur nach der expliziten Zustimmung durch die Nutzer*innen.

Apple Intelligence wird ab Herbst verfügbar sein, allerdings nur in englischer Sprache und eventuell zunächst in einer Testphase nur in den Vereinigten Staaten. Wer Apple Intelligence in deutscher Sprache nutzen möchte, wird bis 2025 warten müssen. Da es fest in das Betriebssystem integriert ist, ist ein iPhone 15 Pro oder ein iPad oder Mac mit einem M-Chip erforderlich.

Mehr lesen