Das MentalTech Collective fordert „Numerikovigilanz“

Das MentalTech Collective fordert „Numerikovigilanz“
Das MentalTech Collective fordert „Numerikovigilanz“
-

Während sich die psychische Gesundheit alarmierend verschlechtert, veröffentlicht das MentalTech Collective an diesem Donnerstag, dem 10. Oktober, dem Welttag der psychischen Gesundheit, einen Bericht, der die sowohl vielversprechende als auch besorgniserregende Rolle der KI in diesem entscheidenden Bereich hervorhebt. Dieser von Alexia Adda, Mitbegründerin von KLAVA Innovation, koordinierte Bericht beleuchtet technologische Fortschritte im Bereich der psychischen Gesundheit und wirft gleichzeitig grundlegende ethische Fragen auf.

MentalTech ist das erste französische Kollektiv, das sich der Entwicklung digitaler Lösungen im Bereich der psychischen Gesundheit widmet. Es wurde im März 2022 von sieben Gründungsmitgliedern gegründet: Qare, hypnoVR, Kwit, moka.care, PetitBamBou, ResilEyes Therapeutics und Tricky und vereint mittlerweile mehr als dreißig Akteure (Startups, Institutionen, Gesundheitsexperten) mit dem gleichen Ziel: zu Reagieren Sie auf die Dringlichkeit des Einsatzes ethischer digitaler Tools zur Prävention und Pflege der psychischen Gesundheit.

Das Kollektiv weist auf die Zunahme affektiver Störungen in den letzten Jahren, insbesondere bei jungen Erwachsenen, sowie auf die Zunahme psychiatrischer Notfallkonsultationen aufgrund von Diagnosefehlern und der Tabuisierung der psychischen Gesundheit hin. Angesichts dieser Herausforderungen wird das Aufkommen digitaler Tools immer wichtiger, um die Präzision von Diagnosen zu verbessern, Behandlungen zu personalisieren und den Zugang zur Gesundheitsversorgung zu erleichtern.

KI: ein transformatives Werkzeug

In den letzten Jahren hat die KI erhebliche Fortschritte gemacht und innovative Lösungen in verschiedenen Bereichen, einschließlich der psychischen Gesundheit, angeboten. Dem Bericht zufolge zeichnen sich vier Hauptrahmen für KI-Interventionen ab:

  • Wertvorhersage : KI kann durch die Analyse großer Datenmengen mentale Zustände vorhersagen und so Emotionen in Videos oder Textgesprächen erkennen, bevor ernsthafte Symptome auftreten;
  • Dialoggenerierung : Chatbots können direkt mit Patienten interagieren und so kontinuierliche, personalisierte Unterstützung bieten. Sie können den psychologischen Zustand von anhand ihrer mündlichen oder schriftlichen Antworten in Echtzeit analysieren und erste Hilfestellungen oder Empfehlungen geben.
  • Schaffung therapeutischer Aktivitäten : KI kann Programme erstellen, die auf spezifische Patientenbedürfnisse zugeschnitten sind, einschließlich ernsthafter Spiele und Entspannungsübungen. Virtuelle Realität kann bei der Behandlung von Phobien helfen oder
    posttraumatische Belastungsstörung durch Simulation kontrollierter therapeutischer Umgebungen;
  • Ressourcenempfehlung : Den Patienten können relevante Empfehlungen (Artikel oder Videos) gegeben werden, die ihnen helfen, ihre Symptome besser zu verstehen und zu bewältigen, sowie den medizinischen Fachkräften (Pflegeprotokolle), entsprechend den geäußerten oder erkannten Bedürfnissen.

Diese Technologien zielen darauf ab, Diagnosen zu verbessern und ein integrativeres Gesundheitssystem zu schaffen und so Lücken beim Zugang zur psychischen Gesundheitsversorgung zu schließen.

Ethische Herausforderungen, denen man sich stellen muss

Der zunehmende Einsatz von KI in der psychischen Gesundheit wirft jedoch wichtige ethische Herausforderungen auf. Der Schutz sensibler Patientendaten ist ein großes Anliegen, insbesondere da KI häufig auf großen Mengen personenbezogener Daten basiert. Darüber hinaus warnt der Bericht vor der Gefahr einer Entmenschlichung der Pflege und betont die Notwendigkeit einer menschlichen Validierung von Entscheidungen, die von KI getroffen werden.

Eine weitere Herausforderung liegt in der Erklärbarkeit von Algorithmen. Diese oft als „Black Boxes“ bezeichneten Modelle können komplexe Entscheidungen treffen, ohne dass ihre Logik für Ärzte immer verständlich ist, weshalb eine bessere Transparenz wichtig ist.

Europäische Vorschriften

KI-Anwendungen im Gesundheitswesen gelten oft als risikoreich, und die neuen Anforderungen des KI-Gesetzes ergänzen die bestehenden Vorschriften für Medizinprodukte.

Das Kollektiv erinnert daran, dass KI-Verleger sechs Schritte befolgen müssen, um die neuen Standards einzuhalten: den Rahmen für die Nutzung festlegen, die Zustimmung des Patienten zur Datenerfassung einholen, die Auswirkungen der KI bewerten, Voreingenommenheit antizipieren, die Einhaltung gesetzlicher Vorschriften sicherstellen und eine angemessene Governance etablieren.

Aufruf zur numerischen Überwachung

Um diesen Herausforderungen zu begegnen, fordert das MentalTech Collective die Schaffung eines „Numericovigilance“-Rahmens. Inspiriert vom Pharmakovigilanz-Modell zielt dieses Rahmenwerk darauf ab, die Patientensicherheit zu gewährleisten und gleichzeitig potenzielle Abweichungen von KI-Geräten schnell zu erkennen. Ihm zufolge würde es möglich sein, ein Gleichgewicht zwischen technologischer Innovation und der Achtung grundlegender ethischer Prinzipien im Management der psychischen Gesundheit aufrechtzuerhalten.

Das Kollektiv identifiziert zehn Hauptachsen für dieses Rahmenwerk:

1. Vorbereiten einer Informationsmitteilung : Erstellen Sie ein erläuterndes Dokument für Benutzer, in dem die Funktionsweise der KI, ihre Vorteile, ihre Risiken, die Zielgruppe und Maßnahmen im Falle einer Fehlfunktion detailliert beschrieben werden, mit verständlicher Sprache.

2. Die Schaffung eines multidisziplinären wissenschaftlichen Ausschusses : Bilden Sie ein Komitee, das mindestens aus einem Arzt, einem KI-Experten, einem Ethiker und einem Regulierungsspezialisten besteht, um die Entwicklung und Bewertung von KI-Systemen zu überwachen.

3. Die Einbeziehung von Gesundheitsfachkräften : Beziehen Sie medizinische Fachkräfte in den KI-Entwicklungsprozess ein, um die Robustheit und Zuverlässigkeit der Systeme sicherzustellen.

4. Ausbildung von Gesundheitsfachkräften : bieten Schulungen zu KI, ihren Anwendungen in der Medizin und den Prinzipien der Bewertung maschineller Lernsysteme an.

5. Benutzerdefinierte Installation für Benutzer : Passen Sie den Einsatz von KI-Tools an die Anliegen der Benutzer an, indem Sie für jeden Anwendungsfall spezifische Protokolle entwickeln.

6. Das Fehlen von Interessenkonflikten : Stellen Sie sicher, dass es keine Interessenkonflikte zwischen den an der Erkennung und Behandlung von Störungen beteiligten Stellen gibt.

7. Bewertungsmetriken anpassen : Passen Sie die Bewertungsmetriken des Algorithmus je nach Anwendungsfall an und gewährleisten Sie die Transparenz und Wirksamkeit von Sicherheitsmechanismen.

8. KI-Entscheidungen nachvollziehen : Dokumentieren Sie den KI-Entscheidungsprozess, erläutern Sie die erzielten Ergebnisse und sehen Sie Ausnahmen vor, wenn ein erheblicher medizinischer Nutzen nachgewiesen werden kann.

9. Auswahl der Trainingspopulation : Stellen Sie die Repräsentativität der zum Training der KI verwendeten Daten sicher und führen Sie bei Bedarf zusätzliche Studien durch, um algorithmische Verzerrungen zu verhindern.

10. Sparsame Datenerfassung : Befolgen Sie die Empfehlungen der CNIL, indem Sie nur wesentliche Daten sammeln, um KI auf pragmatische und effiziente Weise zu testen.

-

PREV Was wir über die neue Variante wissen, die hauptsächlich zwischen Menschen übertragen wird
NEXT Essen Sie diese Frucht jeden Tag, um die Alterung Ihres Gehirns zu verlangsamen, heißt es in einer neuen Studie