International Coach Federation Deutschland

„Künstliche Intelligenz“ – Einsatz im Coaching und Vertraulichkeit als ethischer Grundsatz, ist das vereinbar?

Beitrag der Ethikkommission ICF Deutschland

Künstliche Intelligenz“ – Einsatz im Coaching und Vertraulichkeit als ethischer Grundsatz, ist das vereinbar?

Uwe Achterholt

Der Begriff „Künstliche Intelligenz“ wird heute in vielfältigen Zusammenhängen genutzt. In vielen Bereichen unseres Lebens werden wir schon täglich Zeuge der Anwendung künstlicher Intelligenz – ohne es immer zu bemerken.

Künstliche Intelligenz im Coaching mag für viele von uns gedanklich noch in weiter Ferne liegen oder gar unvorstellbar sein. Schließlich geht es beim Coaching um Menschen, um deren Werte und Ziele. Gefühlt ist hier emotionale Intelligenz mehr gefragt als die künstliche Intelligenz der Computeralgorithmen.

Dennoch gibt es auch hier bereits erste Anwendungen. Neben rechtlichen Aspekten – wie z.B. der Beachtung der DSGVO – sind hier auch ethische Aspekte zu berücksichtigen.

Bevor wir uns näher mit diesen Aspekten beschäftigen, möchte ich kurz darstellen, was „Künstliche Intelligenz“ eigentlich ist.

Was ist künstliche Intelligenz?

Die Unterstützung unserer Arbeit, und auch anderer Aspekte unseres Lebens, durch Computer, Tablets und Smartphones ist für uns mittlerweile allgegenwärtig. Allen Anwendungen liegen Computerprogramme zugrunde, die von Menschen erstellt wurden. Das Ergebnis „konventioneller“ Programme ist weitgehend vorhersehbar, es entspricht dem, was der Programmierer dem Computer beigebracht hat.

Künstliche Intelligenz zeichnet sich im Gegensatz dazu dadurch aus, dass das Programm „lernen“ kann. Das heißt, das Ergebnis, welches der Computer liefert, hängt nicht mehr ausschließlich von dem ab, was die Programmierer eingegeben haben, sondern wird durch die „Erfahrungen“, die der Computer sammelt, beeinflusst.

In Bezug auf die Anwendung im Coaching heißt das, dass „Erfahrungen“ aus dem Coaching dem Computer zugänglich gemacht werden müssen. In diesem Fall nicht „zufällig“ durch Datenlecks, Hacker oder lauschende Geräte (Alexa, Siri & Co. – s. auch den Artikel im Januar Newsletter), sondern „absichtlich“.

Wo und wie wird künstliche Intelligenz aktuell im Coaching eingesetzt?

Bereits heute gibt es Ansätze zum Einsatz von künstlicher Intelligenz im Coaching. Es gibt z.B. Versuche das „Matching“, also die „Beste“ Paarung von Coach und Coachee mit künstlicher Intelligenz zu unterstützen.

Darüber hinaus gibt es bereits „Coach-Bots“, also Programme die, unter Nutzung von Spracherkennung, ein Coachinggespräch führen – nur, dass auf der einen Seite ein „virtueller“ Coach sitzt.

Dies wurde bereits auf dem Coachingtag 2017 mit Vertretern namhafter deutscher Firmen diskutiert. Die Erwartungshaltung war, dass dies innerhalb der nächsten fünf Jahre Realität wird. Aus Sicht der Firmenvertreter – und möglicherweise auch der Coachees – liegen die Vorteile auf der Hand: Der Service ist 24 Stunden am Tag, 7 Tage die Woche verfügbar - Computer werden nicht müde. Durch die Skalierbarkeit kann der Service weitaus billiger angeboten werden, als es heute möglich ist, und damit kann Coaching breiteren Schichten zugänglich gemacht werden.

Auch wenn die fünf Jahre aus Sicht von 2017 dem einen oder anderen zu euphorisch klingen – die technische Entwicklung ist rasant. Gerade in der vergangenen Woche erhielt ich eine Anfrage eines amerikanischen Kooperationspartners, der einen solchen Coach-Bot entwickelt hat, ob ich interessiert wäre an der Beta-Test Phase teilzunehmen.

Also Super-Aussichten für „besseres“ Coaching in der Zukunft durch künstliche Intelligenz? Bessere Passung von Coach und Coachee, bessere Verfügbarkeit des Service, günstigere Preise – all das klingt verheißungsvoll. Aber ….

Ethik und Einsatz der künstlichen Intelligenz im Coaching

Unabhängig von der persönlichen Überzeugung, ob gutes Coaching durch einen „virtuellen“ Computer Coach durchführbar ist oder nicht, werden wir uns mit den damit verbundenen Aspekten auseinandersetzen müssen.

Im Ersten Abschnitt habe ich erläutert, dass „künstliche Intelligenz“ aus „Erfahrungen“ lernt. Zumindest die ersten Generationen von KI-Anwendungen werden diese Erfahrungen von Menschen vermittelt bekommen müssen. Dabei ist es nicht ausschlaggebend, ob es sich um einen isolierten Aspekt, wie z.B. das Matching, oder um das Coaching Gespräch, wie bei einem Coach-Bot handelt.

Hier kommt die Ethik ins Spiel. Coaching findet bisher für den Klienten in einem geschützten Raum statt – s. auch den ICF Code of Ethics: Nur der Coachee entscheidet darüber, was nach außen gegeben wird.

Rechtlich gesehen kann man sich hier sicherlich absichern – der Coachee gestattet mir im Coaching-Vertrag die „anonymisierte“ Weitergabe der Daten. Oder – bei Nutzung einer Coachingplattform – genehmige ich das als Coachee möglicherweise bereits mit der Annahme der AGB.

Reicht das auch, um unseren ethischen Anforderungen gerecht zu werden?

Wie oben ausgeführt, müssen wir der KI-Anwendung Erfahrungen aus unserem Coaching zugänglich machen – und das in detaillierter Form. Natürlich kann dies ohne Namensnennung des Coachees erfolgen und natürlich wird jeder Anbieter auf seine sorgfältigen Maßnahmen zur Einhaltung des Datenschutzes hinweisen.

Zu der „Verletzlichkeit“ der geschützten Datenräume von außen ist hier sicher keine weitere Erläuterung erforderlich. Weniger bekannt ist vielleicht, dass es, mit Hilfe entsprechender Programme, möglich ist aus relativ wenigen Informationen auf die dahinterstehende Person zu schließen – also die „Anonymisierung“ wieder aufzuheben.

Ich gehe nicht davon aus, dass die Anbieter dieser Services beabsichtigen in dieser Weise von den Daten Gebrauch zu machen. Allerdings haben wir ja gelernt „Das Internet vergisst nie“, in anderen Worten, die Daten, die wir wohlmeinend einmal in die „Cloud“ eingespeist haben bleiben dort verfügbar.

Hiermit wird der „geschützte“ Raum für den Klienten zumindest gefährdet – in diesem Fall durch uns als Coaches. Damit ist dies ein Thema, mit dem wir uns ethisch auseinandersetzen müssen.

Im Falle der Nutzung von Coach-Bots ist es der Coachee selbst, der alle Informationen in die digitale Welt einspeist. Per Definition muss jedes Wort, jeder Satz, jede Betonung durch ein entsprechendes Programm erfasst und bewertet werden, um dem Coach-Bot die passende Information für seine Antwort liefern zu können. Auch hier gilt: Der Coach-Bot lernt durch Erfahrung. Es kann also nicht im Interesse der Verbesserung dieser Anwendungen liegen, die in einer Sitzung gesammelten Informationen nachher „zu vergessen“.

In diesen Fällen kann der Coach leider nicht derjenige sein, der den Coachee für die potentiellen Risiken sensibilisiert – und die Anbieter der Services werden daran nur ein bedingtes Interesse haben. Insofern stellt sich hier die Frage, inwieweit ein globaler Berufsverband wie die ICF, hier eine Rolle zur Durchsetzung der ethischen Standards in einer digitalen Coachingwelt übernehmen kann.

Meine Kollegen und ich freuen uns über Rückmeldungen und Anregungen:

ethikkommssion@coachfederation.de

Uwe Achterholt, Dr. Thomas Bachmann, Dr. Evelyn Albrecht, Doris van de Sand


Text: Uwe Achterholt       Bild: Uwe Achterholt


Coachingtag 2020

Sponsoren

ICF-Deutschland Newsletter

aktuelle Ausgabe

Veranstaltungen

Virtual Education

Europas größte virtuelle Live-Plattform zum Thema Coaching

mehr >

News

Keine Nachrichten verfügbar.

Newsletter bestellen