Ein Algorithmus der Harvard University erkennt Hinweise auf klinische Depressionen anhand öffentlicher Instagram-Posts – mit beachtlicher Treffergenauigkeit. Der Ansatz eröffnet faszinierende Möglichkeiten für die psychische Frühversorgung, wirft jedoch tiefgreifende Fragen zu Datenschutz, Ethik und den Grenzen algorithmischer Diagnostik auf.
KI-Analyse von Instagram-Bildern soll Depressionen erkennen – Nutzen und Risiken im Widerstreit
Forschern ist es gelungen, ein KI-System zu entwickeln, das anhand öffentlicher Instagram-Posts mit beachtlicher Genauigkeit Hinweise auf klinische Depressionen erkennt. Die Studie wirft grundlegende Fragen auf: Wo liegt die Grenze zwischen digitalem Frühwarnsystem und unzulässiger psychologischer Überwachung?
Wie das System funktioniert
Wissenschaftler der Harvard University und der University of Vermont haben einen Algorithmus trainiert, der Bildinhalte, Farbgebung, Helligkeit, Filter-Nutzung und Posting-Frequenz auf Instagram auswertet. Das Modell erkannte dabei charakteristische Muster:
- Nutzer mit diagnostizierter Depression neigten häufiger zu dunkleren, weniger gesättigten Bildern
- Sie verwendeten seltener aufhellende Filter wie „Valencia”
- Ihre Bildunterschriften und Kommentare unterschieden sich messbar von jenen nicht betroffener Nutzer
Die Trefferquote des Algorithmus lag in der Studie höher als die von Allgemeinmedizinern bei der Ersteinschätzung depressiver Erkrankungen.
Methodische Grundlage
Basis der Untersuchung waren Instagram-Feeds von 166 freiwilligen Teilnehmern, die offen über ihre Diagnose Auskunft gaben. Die Datenmenge ist damit vergleichsweise überschaubar – die Forscher selbst weisen auf die begrenzte Aussagekraft hin. Dennoch lieferte die Methode ausreichend statistische Signifikanz, um das Prinzip als valide einzustufen.
Besonders bemerkenswert: Die KI registrierte Auffälligkeiten bereits in Posts, die zeitlich vor der eigentlichen Diagnosestellung lagen – ein starker Hinweis auf mögliches Früherkennungspotenzial.
Datenschutz als zentrales Problem
Unabhängig vom medizinischen Nutzen stellt der Ansatz aus datenschutzrechtlicher Sicht eine erhebliche Herausforderung dar. Gesundheitsdaten zählen nach der Datenschutz-Grundverordnung (DSGVO) zu den besonders schützenswerten Kategorien personenbezogener Daten.
Eine automatisierte Auswertung öffentlicher Social-Media-Profile zur Ableitung psychischer Erkrankungen wäre in der EU ohne explizite Einwilligung der Betroffenen rechtlich kaum haltbar – selbst wenn die Bilder technisch öffentlich sichtbar sind.
Hinzu kommt das Risiko falsch-positiver Einschätzungen: Ein Algorithmus, der einen gesunden Nutzer fälschlicherweise als potenziell depressiv klassifiziert, kann erhebliche Konsequenzen haben – etwa wenn solche Daten in Versicherungs- oder Arbeitskontexte gelangen.
Einordnung für deutsche Unternehmen
Für Unternehmen in Deutschland, die KI-gestützte Analysen von Mitarbeiter- oder Kundendaten erwägen, verdeutlicht dieser Fall die engen regulatorischen Grenzen:
- Selbst öffentlich verfügbare Daten dürfen nicht ohne Weiteres zur Ableitung sensibler Merkmale genutzt werden
- DSGVO und Bundesdatenschutzgesetz verlangen klare Rechtsgrundlagen, Transparenz und Verhältnismäßigkeit
- Datenschutzbeauftragte sollten frühzeitig in KI-Projekte im HR- und Kundenumfeld eingebunden werden
- Jeder Einsatz solcher Modelle erfordert eine strenge Zweckbindungsprüfung
Der Fall zeigt exemplarisch: Technische Machbarkeit und rechtliche Zulässigkeit sind zwei völlig verschiedene Fragen – und beide müssen beantwortet werden, bevor ein System produktiv geht.
Quelle: 9to5Google – Are you clinically depressed? Instagram AI