Karim die AI liefert psychologischen Unterstützung für syrische Flüchtlinge
Wer sagt das mehr als 1m Syrer in den Libanon geflohen sind, seit Beginn des Konflikts mit weniger als einem Fünftel leiden unter psychischen Störungen,
Mehr als 1 Million Syrer sind in den Libanon geflohen seit Beginn des Konflikts und der weniger als ein Fünftel von ihnen unter psychischen Störungen leiden kann nach Angaben der Weltgesundheitsorganisation.
Aber Libanons psychiatrischen Diensten meist privat sind und die Bedürfnisse der Flüchtlinge, die lieben zu Hause, Lebensunterhalt und deren Gemeinschaft verloren haben – meist unerfüllten gehen.
In der Hoffnung, die Bemühungen der überarbeiteten Psychologen in der Region zu unterstützen, hat das Silicon Valley-Startup X2AI erstellt eine künstlich intelligente Chatbot namens Karim, die Text-Nachricht-Gespräche in arabischer Sprache, Menschen mit ihren emotionalen Problemen zu helfen personalisiert haben kann. Wenn der Benutzer mit Karim interagiert, das System Verarbeitung natürlicher Sprache verwendet, um die Person emotionalen Zustand zu analysieren und liefert entsprechende Anmerkungen, Fragen und Empfehlungen.
Eugene Bann, Mitbegründer und CTO von X2AI, sagt: "Es gibt kaum eine mental Health Services in Flüchtlingslagern. Menschen haben Depressionen, Angst, ein Gefühl der Hoffnungslosigkeit und Angst vor dem unbekannten."
Um Karim in die Hände von Flüchtlingen und Mitarbeiter von Hilfsorganisationen, hat X2AI mit einer nichtstaatlichen Organisation namens Feld Innovation Team (FIT), die Tech-fähigen Katastrophenhilfe liefert zusammengetan.
"Wir arbeiten mit vielen Flüchtlingen und es ist eine Herausforderung für uns in der Lage zu helfen, wenn Menschen bereit zu empfangen, nicht sein", sagt FIT Desi Matel-Anderson. "Psychosoziale Dienste schaffen eine Grundlage um Lernergebnisse zu schaffen und tun Sie etwas, die hilft." Exponentielle Technologie wie X2AI lassen Sie uns Menschen erreichen würde nicht normalerweise wird uns zu helfen."
Karim ist der kleine Bruder des X2AIs Full-Service-Flaggschiff, Tess. Die erweiterten Funktionen, die erprobt mit Tess gehören eine Funktion, die erkennt, wenn ein Benutzer wirklich in Not – zum Beispiel es um Selbstmord geht ist oder Selbstverletzung – und dann zu einem menschlichen Psychologen übergibt für ein Beratungsgespräch. Ein Prototyp des Tess wurde entwickelt, um zur Bewältigung der posttraumatischen Belastungsstörung (PTBS) in Kriegsveteranen.
Im Moment wird viel vorsichtiger Karim positioniert als Freund und nicht als Therapeut verwendet.
"Natürlich haben wir alle diese psychologischen Therapien, die wir geben können und letztlich ist es unser Ziel, aber zunächst müssen wir diese Barrieren abzubauen", erklärt Bann. "Wir lassen sie über oberflächliche Dinge zuerst – sprechen was sie wollen, zum Beispiel Filme. Dann könnte langsam und laut wie sie reagieren und wie ihre Gefühle von uns interpretiert werden Karim ihnen etwas mehr persönliche Fragen zu stellen."
Ahmad, 33, ist ein syrischer Flüchtling, der seine Heimat in Damaskus Leben in West Bekaa-Ebene im Osten Libanon geflohen. Er unterrichtet an einer Schule für Flüchtlingskinder und bekam die Gelegenheit zum Test Karim. "Ich fühlte mich wie ich mit realen Person gesprochen habe," sagt er. "Viele syrische Flüchtlinge haben Trauma und vielleicht kann sie überwinden helfen."
Jedoch weist er darauf hin, dass es ist ein Stigma rund um Psychotherapie, sagen, empfinden Scham über Psychologen aufsuchen. Infolgedessen denkt er, dass die Menschen fühlen sich vielleicht wohler zu wissen, dass sie ein "Roboter" als mit einem Menschen sprechen.
Es gibt eine lange Geschichte der Verwendung von Chatbots um Psychotherapie zu liefern. In den 1960er Jahren erstellte Informatiker Joseph Weizenbaum Eliza, eine Simulation eines Psychotherapeuten, die Aussagen mit Fragen beantworten würde. In den 1990er Jahren entwickelte Richard Wallace ein ähnlich aber besser Chatbot namens Alice, die der Loebner-Preis, damit "ihr" die meisten menschenähnliche AI in der Welt zur Zeit gewonnen.
"Eliza und Alice sind sehr einfach. Sie erhalten einen Eingang und einen begrenzten Satz von Regeln basierend auf Keyword spotting und einige grundlegenden Statistiken verwenden, um festzustellen, wie zu reagieren,"sagt Bann. Tess, auf der anderen Seite berücksichtigt alle vorherigen Patienten und AI Antworten wenn man bedenkt, was als nächstes sagen, und auch die Ebene des Gesprächs nimmt durch verschiedene Stadien – Module der Psychotherapie – durchzuführen, wenn der Patient bereit ist.
X2AI Technologie basiert auf akademische Forschung Bann an der University of Bath, durchgeführt wo er versucht, kommen mit übergreifenden Rechenmodelle der Emotion. Bann zog nach San Francisco "aus einer Laune heraus" und lebte in einem Hacker-Haus, wo er mit Michiel Rauws traf, versuchte, die Gründung eines Unternehmens in psychologischer Hilfe.
Die beiden realisiert, dass Bann Algorithmen Rauws Ziele sehr nützlich sein könnte, und richten Sie das Geschäft zusammen. Das Unternehmen geriet in die Singularity University-Accelerator-Programm und perfektionierte ihr Geschäftsmodell vor Partnerschaft mit Feld Innovationsteam für den Piloten Karim.
Nicht jeder teilt X2AIs bullish Silicon Valley-Ansatz für das Problem. David Luxton ist Associate Professor an der Abteilung für Psychiatrie und Verhaltenswissenschaften an der University of Washington School of Medicine, und baut ein ähnliches Tool, Tess. Er stimmt zu, dass diese Arten von Werkzeugen eine Lücke füllen können, wo es ein Mangel an psychischer Gesundheitsversorgung, aber er wirft ethische Bedenken.
"Wenn jemand angibt, dass sie Selbstmordgedanken zu menschlichen Psychologin sind dann sind wir verpflichtet, bestimmte Dinge zu tun durch Gesetz. Wie wird das System damit umgehen? Der andere Aspekt ist, dass Sie ein Mensch simulieren und der Endbenutzer möglicherweise verwechselt und befestigt in einer Weise, die tatsächlich für den Patienten schädlich sein könnte."
"Wenn es nur coaching leistet kann es in Ordnung sein."