Bild: DenPhotos / shutterstock.com

Marke vor Meinung: Wie Apple seine KI auf Kuschelkurs trimmt

Stell dir vor, du fragst Siri bald nach Donald Trump – und bekommst eine weichgespülte Antwort, die klingt wie aus dem Presseteam des Weißen Hauses. Genau das könnte Realität werden. Denn laut einem Bericht des Magazins Politico hat Apple seine internen Richtlinien für das Training der eigenen KI grundlegend verändert – und zwar auffallend politisch. Ausgerechnet Themen wie Diversität, systemischer Rassismus, LGBTQ+, Impfungen oder Wahlen gelten jetzt als „kontrovers“. Kritik an Trump? Bitte nur mit Samthandschuhen.

Was wie ein dystopischer Witz klingt, basiert auf Aussagen zweier Daten-Annotator:innen und internen Dokumenten eines Apple-Dienstleisters in Barcelona. Dort wird die KI namens „Apple Intelligence“ trainiert – von Menschen, die nicht einmal offiziell wissen, dass sie für Apple arbeiten.

Diversity = „kontrovers“?

Die Liste der heiklen Themen, bei denen Apples KI künftig besonders vorsichtig antworten soll, ist länger geworden – und vor allem inhaltlich auffällig. Während die frühere Regelung noch deutlich gegen Intoleranz Stellung bezog, wird „Diversity, Equity & Inclusion“ (DEI) nun als kontrovers eingestuft. Auch Begriffe wie „systemischer Rassismus“ wurden entfernt. Die Botschaft: Weniger Haltung, mehr Neutralität – zumindest nach außen.

Besonders skurril ist der Umgang mit Trump. Begriffe wie „radikale Trump-Anhänger“ sollen laut den neuen Richtlinien vermieden oder abgeschwächt werden, um nicht „stereotypisierend“ zu wirken. Man wolle keine „aufwieglerischen“ Aussagen fördern – was in der Praxis wohl bedeutet: Keine Kritik an Trump, kein Streit mit seinen Fans.

Keine Kratzer fürs Apfel-Logo

Während Apple nach außen betont, die KI werde „verantwortungsvoll“ trainiert, zeigt der Bericht: Es geht auch um knallhartes Markenmanagement. Antworten, die Apple selbst, seine Produkte oder Führungskräfte wie Tim Cook oder Steve Jobs in schlechtem Licht zeigen könnten, sollen als sensibel behandelt oder ganz vermieden werden.

Klingt ganz nach Imagepflege im digitalen Zeitalter: Die KI soll helfen, nicht stören – schon gar nicht beim Verkauf. Die Wahrheit wird zweitrangig, solange das Logo glänzt. Besonders bizarr: Selbst negative Presseberichte oder Datenschutzskandale dürfen in den Antworten der KI nur vorsichtig angesprochen werden.

Zensur durch Markenstrategie?

Dass Unternehmen ihr Image schützen wollen, ist nicht neu. Dass sie dafür aber künstliche Intelligenz so stark politisch filtern, ist eine neue Dimension. Wer eine neutrale, sachliche KI erwartet, bekommt am Ende vielleicht ein höflich lächelndes Sprachmodell – das zu allem Ja sagt, nur um bloß niemanden zu verärgern. Auch nicht den US-Präsidenten.

Man kann es auch so sagen: Die neue Apple-KI weiß künftig sehr genau, was sie nicht sagen darf – und das ist vielleicht genau das Problem.

Zum Newsletter anmelden

und immer aktuell im Datenschutz informiert.