Transkript UnderDocs 011: „Wie mit einem Idioten …“

2019, AK Uni im Kontext

UnderDocs 011: „Wie mit einem Idioten …“

 

Begrüßung, Vorstellung

Fabian:
[0:39] Herzlich willkommen zur elften Ausgabe der Underdocs. Mein Name ist Fabian Link.
Nachdem wir uns das letzte Mal mit den Erziehungswissenschaften beschäftigt haben, geht es heute mehr um die Kommunikation mit Computern.
Natürliche, gesprochene Kommunikation mit Computern, einfach in das Gerät rein sprechen und es macht, was man gerne möchte…
Ist nicht nur ein beliebtes popkulturelles Motiv, wie wir es gerade im Teaser gehört haben, sondern
auch ein großer Traum vieler Entwicklerinnen und Entwickler, die an intuitiven Eingabemöglichkeiten für digitale Systeme arbeiten. Und in letzter Zeit suggeriert zumindest die Werbung,
dass wir in dieser Zeit auch endlich angekommen sind.
Ob Amazons Alexa, Apples Siri, Microsofts Cortana oder der Google Assistent, all diese Systeme sind medial sehr präsent und auch im Alltag finden sie sich an vielen Stellen.
Die meisten Menschen werden in ihrer Umgebung zumindest irgendein Smartphone haben oder ein Tablet, was mit einer Sprachsteuerung ausgestattet ist. Dieser Kontakt mit diesen Sprachassistenten, wie beeinflusst das eigentlich unser menschliches Miteinander und unsere
zwischenmenschliche Kommunikation?
Um das ein bisschen aufzuklären, habe ich mir heute den Christian Allner eingeladen. Hallo Christian.

Christian:
[1:53] Hallo, freut mich hier sein zu dürfen.

Fabian:
[1:55] Vielleicht fangen wir einfach damit erstmal an, dass du dich so ein bisschen vorstellst und deinen Forschungs- und Karriereweg erklärst. Der ist ja doch ein bisschen besonders,
insbesondere mit deiner Selbstständigkeit.

Christian:
[2:06] Und dann versuche ich jetzt auch mal, die knappe, kurze Zusammenfassung zu geben.
Tagsüber berate und betreue ich mit meiner Agentur ‚Schrift Architekt‘ vor allem Unternehmen darin, besser zu kommunizieren, im Datenschutz sicherer zu werden und Social Media zu meistern.
Das ist auch eines meiner drei Schwerpunktthemen: Social Media, Seminare, Übersetzung und Kommunikation an sich.
Und da mir das tagsüber noch nicht reicht und ich neben Familie und Freunden, Partnerschaften noch mehr machen möchte, hab ich es mir aufgehalst und gesagt „Komm, Du hast jetzt deinen Master in der Tasche, Doktor wäre dann der nächste Schritt. Schauste‘ mal, ob du es hinbekommst…“.
Und bin quasi bei Tag selbstständig, bei Nacht bin ich der Wissenschaftler mit meinem eigenen kleinen „Science Bat Logo“. Ne, Scherz beiseite.
Ich bin inzwischen hauptberuflich selbstständiger Unternehmer, vor allem in diesem Bereich, also Online-Kommunikation, auch strategische Beratung von Unternehmen, also wo es schon immer um Kommunikation geht. Und ich
promoviere aktuell noch an der Alpen Adria Universität Klagenfurt zu Wöhrtersee im Bereich Sprachassistenten, also halt auch Online-Kommunikation, Smart Homes, Smart Devices.

Fabian:
[3:12] Heute soll es natürlich vor allen Dingen um deine Forschungsarbeit gehen… Was ich ganz interessant fand, dass du schon in deinem Studium immer wissenschaftliche Arbeiten zum Thema digitale Kommunikation angefertigt hast.

Digitale Kommunikation

[3:26] In deinem Bachelor hast du dich ja im Prinzip damit beschäftigt, wie man digitale Kommunikation als Ganzes betrachten kann und ob das mit den normalen Kommunikationsmodellen, die wir in der Wissenschaft sonst so verwenden, überhaupt beschreibbar ist.
Vielleicht kannst du da ja nochmal einen kurzen Überblick geben.

Christian:
[3:44] Ich hatte damals das wirkliche Vergnügen, das ist ehrlich gemeint, an der Universität in Halle ‚Berufsorientierte Linguistik im interkulturellen Kontext‘, kurz BLIK ohne „c“ geschrieben, studieren zu dürfen.
Das ist einfach so ein Mix aus den klassischen Sprachwissenschaften
und auch so modernen Medienwissenschaften. Interkulturelle Kommunikation ist da auch so ein Schwerpunkt, aber halt eben alles eher so traditionell ausgerichtet. Also, dass wir uns halt wirklich mit den Kulturwissenschaften, mit den Sprachwissenschaften einfach als übliches Fach auseinandergesetzt haben.
Und da halt in der Zeit, zum einen gerade ja Social Media in aller Munde war, das einfach größer geworden ist, auch in Deutschland langsam angekommen ist, so langsam auch Teil des Alltags wurde…. Wie einfach nur, wenn ich jetzt mir den geraden ‚hype cycle‘ einfach mal überlege… Einfach nur so diesen Berg der

[4:32] überhöhten Erwartungen, den wir hatten zu dem Zeitpunkt. Wie wir, ich ja auch das noch aus meiner Kindheit kenne, also das Internet galt damals noch als Lösung für alles. Es konnte ja
so eine Star Trek Utopie irgendwann mal hervorrufen. Jetzt wissen wir „ja, okay gut, es ist immer nur so gut, wie der Mensch ist“ und das ist ja ein anderes Thema.
Aber damals hatte ich einfach dieses Interesse gehabt, weil ich es zum einen halt privat nutze, ich habe halt auch einen größeren, internationalen Bekannten- und Freundeskreis und da hatten sich Facebook und co. halt
einfach schon angeboten, um schlicht in Kontakt miteinander zu bleiben.
Und da dachte ich mir, während meines Bachelorstudiums schon, es ist doch eigentlich ganz interessant, also keiner deiner Dozenten beschäftigen sich so richtig damit,

mit diesem Thema… warum untersuchst du das nicht mal?
Und da habe ich im Rahmen meiner Bachelorabschlussarbeit erstmal geschaut,
diese ganzen klassischen Kommunikationsmodelle, also ich hatte ganz konkret Gerhard Maletzke und Roman Jakobson mir da rausgesucht, mit ihren beiden Kommunikationsmodellen. Das eine ist so

[5:35] klassische ‚face to face‘-Kommunikation, wie wir das jetzt gerade machen, das wäre von Jakobson. Und das von Maletzke, das ist so klassische Massenkommunikation, also liebe Hörer da draußen, das, was wir jetzt miteinander machen.

[5:40] Und da hab ich einfach erstmal geschaut – weil die beiden halt zum Teil, ich glaub, 1920/30er von Jakobson, 1960er von Maletzke, also alles so ‚vordigitale Zeit‘ quasi, entstanden sind –
hatte ich in meiner Bachelorarbeit erst mal geschaut, kann man die überhaupt auf heutige Kommunikation, sprich, die Online-Kommunikation so richtig anwenden.
Da auch lange Rede kurzer Sinn, dass ihr jetzt nicht meine Bachelorarbeit irgendwo rauskramen müsst, kann man mit ein, zwei Abstrichen vielleicht, aber, ja, kann man.

Bildkommunikation

FABIAN: Nachdem du dich so ein bisschen allgemein mit der Kommunikation im Internet beschäftigt hast, bist du im Master dann ins speziellere rein gegangen. Du hast dich dann ja mit Bildkommunikation beschäftigt und zwar am Beispiel des Tumblr-Blog-Systems. Kannst du da vielleicht erstmal erklären, wie Tumblr funktioniert?

CHRISTIAN: Bei Tumblr gab es mal eine wunderschöne Zusammenfassung. Ich überlege jetzt gerade, wie die nochmal ging… „blogging platform with anxiety problems“ oder sowas.
Tumblr zusammenzufassen ist natürlich schon eine bisschen schwierige Sache. Ich sage immer gerne ‚Hybrid-Blog‘, weil es ja so ein bisschen Blog-System, ein bisschen Social Media, ein bisschen Social Share,
sowas wie YouTube und Instagram, und jetzt seit einigen Jahren so ein bisschen Messenger ist. Es ist also so von allem etwas. Ich finde, dass könnte sogar immer noch das beste vom Internet sein, aber dann wurde Tumblr an Yahoo verkauft…
Naja, das ist eine ganz traurige Geschichte daher eigentlich gewesen. Aber ich hab mich so 2015/2016 im Rahmen meiner Masterarbeit damit dann ja auseinandergesetzt,
wie halt am Beispiel von Tumblr, wie generell Bildkommunikation online stattfindet.
Das heißt, ich hatte die, ich glaube, andere Leute würden mich darum beneiden, ich hatte dann wirklich als Teil meiner Forschung mich unter anderem mit Memes, Emojis und vergleichbaren Sachen auseinandergesetzt.

[7:24] Also „Bad Luck Brian“ war bei mir quasi Quell-Literatur gewesen und Vergleichbares. Also natürlich mit diesem wissenschaftlichen Aspekt: „Wie benutzen wir die Dinger?“ Gerade heute ist es ja extrem geworden, wenn ich mir nur mal die ganzen Messenger WhatsApp und Co. anschaue, was da an
Emojis, Stickern und so weiter einfach auch Teil der Kommunikation ist. Wo es ja teilweise Shitstorms gibt, wenn ein Emoji irgendwie verändert wird.
Das gab es vor verschiedenen Monaten, beispielsweise bei, ich meine, Google war das gewesen…
Da gibt es ja auch immer so Standards, auf welchen Geräten Emojis, wie dargestellt werden. Und ich meine, da hatte Google an seinem Salad Emoji das Ei weggenommen, was halt eben Teil des Salads war, um halt
das Ganze inklusiver zu machen auch für Vegetarier und Veganer, und da ist aber dann in Folge
die Bauern-Industrie auf die Barrikaden gegangen, weil die gesagt haben „Ist das jetzt so schädlich?“ und so weiter.

[8:20] Da können sie sich auch eben super schön drüber aufregen. Oder jetzt mal, wenn jemand einen Pfirsich-Emoiji verwendet, mit den sexuellen Konnotationen die dieses Ding dann hat. Damit habe ich mich jetzt nicht so im Detail auseinandergesetzt, aber generell erstmal allumfassend geschaut, eben am Beispiel von Tumblr,
wie halt diese ganzen visuellen Marker eigentlich verwendet werden. Also wofür Emojis? Wofür Memes? Wobei sollen die helfen? Was sollen die ausdrücken? Wie konkret werden sie verwendet?
Gibt es vielleicht sogar eine eigene Grammatik, wie die Dinger dann benutzt werden?

Fabian:
[8:46] Sowas ist immer eine ganz große Herausforderung, aber kannst du so ein bisschen ein Ergebnis ziehen? Also in relativ kurzen Sätzen beschreiben, was Bildkommunikation im Internet ausmacht?

Christian:
[8:57] Also ich kann gleich sagen, ich hab 120 deutschsprachige Tumblr-Blogs untersucht und bin auf etwa 350.000 Beiträge am Ende gekommen, die ich ausgewertet habe.
Also es ist natürlich nur eine Zufalls-Untersuchung irgendwo gewesen.
Ich mein, ich hab zwar schon so meine Grenzen, aber es ist halt nur ein winziger Bruchteil vom Gesamten, aber ich denke halbwegs aussagekräftig, bei weit mehr als einer Viertelmillion. Generell
Bildkommunikation ist halt eine unterstützende Kommunikation. Wir haben ja 3 Ebenen, auf denen wir kommunizieren: verbal, paraverbal und nonverbal. Also das „was“ ich sage, verbal. Das „wie“ ich es sage, paraverbal. Das eben, was ich nicht sage,
aber halt gestikuliere beispielsweise, eben nonverbal.
Und da ist ja dieses paraverbale zum Beispiel Betonungen,
Ironie, Lautstärke und einfach die Tonhöhe, die Wärme in der Stimme. Das, was wir jetzt gerade haben, was ihr Hörer da draußen jetzt gerade mitbekommt, wie interessiert ich bin oder wie gelangweilt ich über etwas rede.
Das geht ja bei der klassischen Online-Kommunikation verloren, weil wir ja meistens nur per Text kommunizieren.

[10:01] Das Ton ja in den letzten Jahren zugenommen hat, wenn ich zum Beispiel an WhatsApp-Sprachnachrichten denke, das ist auch statistisch erwiesen, dass die mehr geworden sind.
Das ist ja nochmal ein anderer Punkt. Die Online-Kommunikation funktioniert ja weiterhin rein über Text oder halt in irgendeiner abstrahierten Form davon.
Und da unterstützen Emojis beispielsweise, also die ergänzen dieses fehlende paraverbale, zum Beispiel mit so einem Zwinker-Smiley, was meistens auch am Ende des Satzes gesetzt wird.
Witzigerweise hat einige Zeit, nachdem ich mit meiner Arbeit durch war,
der Duden mal eine Empfehlung herausgebracht, wie man Emojis verwenden sollte. Also, wie man sie grammatisch korrekt verwenden sollte. Also einen normalen Satz schreiben, Punkt, und danach das Emoji setzen.
Hab ich bei mir in meiner Arbeit im Vorfeld schon bestätigen können, dass halt Emojis häufig da verwendet werden, um halt eben einfach so als emotionaler Marker zu dienen… um
diese para-/nonverbale Kommunikation, was bei einer reinen Chat-Kommunikation zum Beispiel außen vor bleibt, mit überziehen.
Oder, wenn ich jetzt zum Beispiel an Memes denke, ganz bekannt der ‚Boromir‘-‚Herr der Ringe‘:“Du kannst nicht einfach so und so tun“,
das ist dann ja schon ein sogenannter Visiotyp. Da wurde bereits in den 1990er-Jahren, unter anderem von Pörksen,

[11:13] Forschung zu durchgeführt und der hat halt auch gesagt, also ein Visiotype ist quasi eine klischeehafte und eine stereotypisierte Bildtext-Aussage. Das ist das, was ich dann gesagt habe, aber ein
Visiotype an sich, hat eben eine stereotypisierte Bild-Aussage. Bei ihm ist es zum Beispiel wie das Bild von der Taube für Frieden.
Bei Memes wiederum haben wir ja diese stereotypisierte Konstellation von: ein konkretes Bild, mit einem bestimmten Text, mit einer bestimmten Schriftart ja auch noch dazu.
Memes haben ja immer diese fette, weiße Form um so einen schwarzen Rand und dann ja auch immer dieses eine konkrete Bild,
also immer ein ganz bestimmter Frame, zum Bespiel in einem Film. Das ist jetzt niemals nur irgendein Foto von Sean Bean aus Herr der Ringe, sondern immer dieses eine konkrete Foto, was halt benötigt wird, damit das Meme zum Meme werden kann.
Und da gibt es halt auch eine sehr interessante, also wirklich auch schon Eigendynamik und Evolution der Memes. Also wie ja auch bei der Sprache, beim Geschriebenen, gesprochenen Wort,
manche Begrifflichkeiten aus der Mode kommen, andere Begrifflichkeiten dazukommen. Wenn ich jetzt zum Bespiel an dieses „vong-Sprech“ denke,

[12:16] in der Jugendsprache, was da vor einigen Jahren plötzlich aufkam, aber ich glaube eher, weil es mal ‚Jugendwort des Jahres‘ irgendwie gewesen ist.
Das gibt es auf der einen Seite, das kommt dann noch mit dazu. Andere Sachen, wenn ich jetzt an sowas wie „sapperlot“ denke, das ist ja nicht mehr wirklich gebräuchlich. Genauso ist es halt auch mit Memes.
Es gibt welche, die haben schon recht lange Lebenszeit, andere sind halt wirklich nur sehr kurzfristig, aber dienen halt wie allem anderen dazu, besser zu kommunizieren.
Also sie versuchen, uns bei unserer Kommunikation zu unterstützen.
Denn im Normalfall, der Mensch spricht und Sprache ist der Versuch von Kommunikation, denn echte Kommunikation wäre halt wirklich dieses komplette Übertragen…
„Ich will von dir etwas..“ oder „Ich will mich irgendwie ausdrücken..“, aber
„Ich werde mindestens Informationen übermitteln..“. Und bei einer richtigen, perfekt idealisierten Kommunikation passiert das hundertprozentig klasse und wir wissen genau, was damit gemeint ist.
Aber, ich sag mal, dein Grün muss nicht mein Grün sein. Das ist so ein schönes Beispiel um einfach zu sagen,

[13:14] jeder von uns lernt ja Sprache auf eine andere Art und Weise, allein schon durch die kulturellen Unterschiede.
Ich sag mal, wenn du jetzt in Nordeuropa aufwächst, ist ein Baum für dich etwas anderes, als wenn du aus Saudi-Arabien kommst.
Da ist ein Baum vielleicht eine Dattelfeige, in Nordeuropa ist es eine Tanne, bei uns ist es ein Laubbaum.
Dieser klischeehafte Begriff, einfach Baum. Und so ist es eben auch im Internet. Verschiedene Kulturen haben da verschiedene Assoziationen einfach zu den Begrifflichkeiten selbst und da sollen halt auch Memes zum Beispiel helfen, das so ein bisschen zu standardisieren.
Emojis sollen da durchaus auch ein bisschen helfen, das zu standardisieren.
Da gibt es ja auch eigene Organisationen, die sich mit Emojis auseinandersetzen, wo dann wirklich teilweise richtig hart miteinander gerungen wird, was eigentlich als Emoji durchgeht und was nicht. Aber wie gesagt, das könnte ich jetzt noch Ewigkeiten ausführen, ich hab da
auch meinen Rahmen damals gesprengt. Ich glaub, ich bin auf knapp hundert Seiten damals gekommen … mit der Masterarbeit.
Aber es ist an sich sehr spannend, dass eben diese ganzen Elemente, Emojis, Bilder an sich, dass die einfach einen festen Platz einnehmen

und das eben ergänzen sollen, was uns normal bei dieser Kommunikationsform verloren geht.

Fabian:
[14:18] Ich finde es interessant, dass du von Evolution der Memes gesprochen hast. Weißt du, woher der Begriff Meme kommt? Also woher der sich ableitet?

Christian:
[14:31] Ja, von Richard Dawkins, aus, ich glaub, den 70er oder 80er Jahren, ich weiß nicht mehr, aber da hatte er das Meme als Gegenstück zum Gen etabliert gehabt.

Fabian:
[14:35] Genau, weil er ja auch diesen evolutionären Prozess beobachtet hat und schon in der Begrifflichkeit das eigentlich drin haben wollte, dass sich diese,…

Christian:
[14:36]

Fabian:
[14:45] Also es gibt ja zwei Definition des Begriffs. Einmal die spezifischere im Rahmen der Bild-Kommunikation und dann ist ja ein Meme quasi so etwas wie ein Informations-Fragment mit einer bestimmten Assoziation,
die ja vor allen Dingen im Internet natürlich auch immer in neue Kontexte gesetzt wird und dadurch wie so einen evolutionären Prozess durchmacht und das ist natürlich spannend,
dass du genau das auch dann in deiner Arbeit beobachten konntest.

Christian:
[15:13] Da kann ich auch sagen, dass ist jetzt auch keine neue Gedankenrichtung. Also in der Linguistik machen wir das eigentlich schon länger auch so, dass da einfach solche Parallelen beobachtet werden.
Also wir haben auch häufiger schon mal – also Kollegen natürlich – haben da auch mit rumgespielt,
dass zum Beispiel für biologische Prozesse versucht wird, das Ganze halt einfach auf Modelle und Theorien von zum Beispiel auch Sprachentwicklung zu übertragen. Es klappt mal besser, klappt mal schlechter,
aber es gibt auf jeden Fall ähnliche Tendenzen. Also so wie ein Organismus sich entwickeln kann, eine Spezies sich evolutionär zum Beispiel entwickeln kann,
passiert das natürlich genauso mit Sprache, weil es natürlich auch von Generation zu Generation weitergegeben wird. So wie wir ja auch mit den Genen das dann
schon haben: manche erlöschen, manche kommen dazu, hin und her. Es ist halt bei der Sprache genauso und das ist an sich sehr faszinierend, dass es da solche Parallelen gibt.
Ich habe es einfach bei mir dann nochmal auf ein konkretes Beispiel,
mit in dem Fall der Bild-Kommunikation bei Tumblr angewandt. Aber wie ich festgestellt habe, auch eine deutschlandweite Pilotstudie damit gemacht.

Fabian:
[16:12] Hat sich also vor dir noch keiner so richtig genau angeguckt?

Christian:
[16:15] Offensichtlich. Ich habe zumindest nichts Vergleichbares gefunden.

Fabian:
[16:18] Ich glaube, anhand dieser Forschungsgeschichte sieht man schon relativ gut, du interessierst dich für digitale Kommunikation,

Digitale Sprachassistenten

[16:28] und das spiegelt sich auch in deinem Dissertationsthema wieder.
Hier allerdings geht es nicht unbedingt nur darum, wie innerhalb digitaler Systeme Menschen miteinander kommunizieren, sondern auch wie wir mit digitalen Systemen kommunizieren. Du beschäftigst dich nämlich wissenschaftlich mit Sprachassistenten, also Alexa, Siri, dem Google Assistent …
und was es da nicht alles noch so gibt.

Christian:
[16:50] Genau und deren ganzen Schwestern, die ganze Familie, die da so aktuell so rum kreucht und fleucht. Generell geht es bei mir dann bei der Diss

vor allem auch um diese interaktiven Kommunikation an der Stelle, dass ja die Sprachsender dann ja auch

antworten können,dass das zwar vorgegebene Sachen sind, ist ja ein anderer Punkt.

[17:06] Dass wir nicht mehr nur diese „Einwegs-Kommunikation“ haben oder halt eben wie bei der Bildkommunikation das Ganze unterstützt wird.
Sondern dass wirklich dieses ‚ich spreche mit dem Tool‘ quasi an der Stelle und das kann dann auch halbwegs ‚mit mir sprechen‘, sehr viel besser als das Microsoft Sam früher konnte.
Und da ist bei mir halt auch gerade der Arbeitstitel „Von Robotern die mitreden“, da darf ich übrigens auch dem Herrn Professor Antos danken, dass ich das als Zitat bei ihm mal verwenden durfte.
Ich sag dann immer gerne meine Hauptfrage: „Wie sehr verkorksen uns Alexa und ihre Schwestern?“, also einfach wir als Mensch.
Aktuell gibt’s da auch Forschung zu, aber das ist meistens diese Informatik, technische Schiene die das Ganze sich da mit anschaut.
Also wie Algorithmus sich weiterentwickelt, das maschinelle Lernen in dem Bereich et cetera pp.
Ich mache das bewusst von der anderen Seite auf, weil ich selbst natürlich einmal aus dem linguistischen, sprachwissenschaftlichen Zweig komme und mich vor allem halt einfach
für die menschliche Seite bei solchen Interface Geschichten, bei dieser ganzen Kommunikations Erziehung interessiere. Also einfach, wie sehr uns diese Systeme beispielsweise auch prägen, was Begrifflichkeiten angeht,

[18:08] was aber auch normative Aspekte angeht, wenn ich jetzt an Sprache an Sich denke. Da gab es auch alle möglichen Tests, als da 2016 Alexa so extrem beworben wurde von Amazon, gerade im Weihnachtsgeschäft, haben dann natürlich auch alle möglichen Computer-Zeitungen dann ihre Tests mit dem Ding gemacht. Dann hat man auch einen Franken,
einen Oberbayern und sonst was mit da hin gesetzt aus der Redaktionen, die dann mit dem Gerät sprechen sollten.
Manchmal hat es gut funktioniert, manchmal es das gar nicht erkannt, solche Dialekte. Das ist ja auch dieser normative Aspekt von „Gibt es eine Standardsprache in dem Sinne?“. Also kann
da zum Beispiel auch so ein Sprachassistenten in der Hinsicht bei uns dann halt solche normativen Zwänge auslösen und uns halt irgendwie zu einer Standardsprache bewegen?
So nach dem Motto, ich weiß genau, auf bayerisch heißt das so und so, da habe ich einen ‚Makrele‘ und auf deutsch habe ich dann eine Makrele.
Je nachdem, wie das halt ausgesprochen wird. Ich kann das nicht so gut nachmachen.

Fabian:
[18:57] Das war wirklich, glaub ich, sehr schlecht bayerisch. Jetzt steigen uns bayerische Hörer aufs Dach.

Christian:
[19:03] Also das Süddeutsche hab ich jetzt auch nicht wirklich gut drauf. Aber sowas wie Kiemsee – Chiemsee, also „ch“-Aussprache, Kina – China, ist vielleicht ein schöner Vergleich. Chiemsee sagt glaub ich niemand. Aber einfach so, was solche Standard-Varietäten gibt. Gibt es die überhaupt? Und wie sehr können da Sprachassistenten beeinflussen?
Das wäre eine Frage. Genauso auch die Benutzung in der Familie an sich. Also,
da hab ich jetzt auch einen Praxispartner an der Stelle, wo es dann halt um Kinder- und Jugendmedienschutz geht und für die ist natürlich auch zum Beispiel sehr wichtig zu wissen, in welchem Alter reagieren und interagieren die Kinder mit den Geräten … Wie denn?
Das ist ja auch so ein schönes Beispiel. Das hatten wir in unserem Vorgespräch auch als einen Punkt gehabt, dass ich mit so einem Sprachassistenten im Normalfall ja in so einem imperativen Befehlston spreche,
„Alexa tu das und das“.
Da ist halt die Frage, ein vierjähriges Mädchen: „Alexa macht die Musik. Mama macht die Brötchen.“.
Also übernimmt das Kind das Ganze oder kann es da dann schon abstrahieren, WIE man mit WEM zu sprechen hat
und das ist auch so ein weiterer Punkt des, da hat mich meine Doktor-Mutter netterweise darauf gebracht, die Ansprache der Geräte an sich.
Ich mein, klar, ich kann denen natürlich auch andere Namen geben, ich kann eine weibliche/männliche Stimme nehmen. Das wäre zum Beispiel auch so ein Punkt, das Thema Intersexualität, was wäre mit so Zwischenstimmen überhaupt erst mal.
Aber prinzipiell geht es da dann vor allem darum, dass halt auch viele Leute über Alexa, Siri, Cortana etc., weil die ja meistens auch

[20:26] weibliche Stimmen haben und einen weiblich klingenden Namen, zumindest bei uns, sag ich mal. Ja gut, Alexa ist in dem Fall ja wirklich ein klassischer Frauenname, aber auch sowas wie Cortana – was eigentlich aus der „Halo“-
Serie stammt, die ja auch zu Microsoft gehört, insofern passt das ja wiederum – da ist es ja auch eine weibliche KI an der Stelle. Einzig der Google Assistent und ich finde
Bixby von Samsung, haben jetzt nicht so extrem nach Frauen klingende Stimmen.
Ich muss bei Bixby immer an einen englischen Butler denken, warum auch immer. Aber es sind trotzdem halt ja alles erstmal Frauenstimmen in der Grundausrichtung.
Das ist halt auch ein Punkt, dass halt viele Leute die dann mit „sie“ ansprechen, wenn die nicht sagen das Gerät, sondern „sie“- Alexa macht für mich das und das. Also auch so irgendwie diese Vermenschlichung der Geräte, was das dann vielleicht auch gegebenenfalls
hervorrufen kann, auch Stichwort Marketing und Co.
Ich meine, das ist ja jetzt nicht gerade so, dass diese Sprachassistenten in der Luft hängen.
Alexa ist von Amazon, das ist ein Online-Shop und wir wissen definitiv, das war eigentlich als Bestell-Unterstützung gedacht gewesen für den Amazon Shop. Das kann natürlich einiges ändern.
Genauso auch bei Microsoft, die stellen Betriebssysteme her. Google hat mit seiner Suchmaschine zu tun. Apple halt mit seiner Produktpalette …
Also diese Unternehmen machen das ja nicht aus reiner Menschenliebe und Nächstenliebe, dass sie Sprachassistenten programmieren.
Es gibt zwar auch einige Open-Source Bewegungen, ich muss das nur mal gerade überlegen… Es gab auch einen Sprachassistenten auf Open-Source, komme ich gerade nicht mehr auf die Bezeichnung.

[21:48] Mycroft hieß das Ding glaub ich. Aber das ist halt so die große Ausnahme.
Als nächstes sind das ja immer kommerziell tätige Unternehmen, die halt auch damit etwas erreichen möchten, die etwas verkaufen möchten im Normalfall. Da ist halt auch der Punkt, wie sehr das vielleicht auch manipulativ wirken kann.

Da nur als Beispiel, da hatten wir auch bei uns in unserem Podcast Mitte letzten Jahres in unserer News-Sektion mal darüber berichtet,
dass Amazon zu dem Zeitpunkt als die Sendung lief, also Mitte 2018 war das,
ein Patent abgegeben hatte, wo es darum ging, dass halt Alexa künftig auch die Art und Weise erkennen soll, wie da gesprochen wird. Also, wenn er zum Beispiel mit einer „zuen“ Nase und auch noch ein bisschen erledigt vielleicht,

[22:31] also was ich vorher hatte, dieses para-/nonverbale dann, [ahmt eine verschnupfte Nase nach]“Alexa, wann muss ich auf Arbeit sein?“ und dann kann der halt schon hören – weil Alexa ja dann mein normales System hat, also wie ich halt üblicherweise spreche – hört das Gerät dann halt raus, „OK. Irgendetwas stimmt da nicht.“.
Das ist jetzt nicht die Norm, das ist eine Abweichung der Norm … für was spricht das? Und da gibt es halt dieses Patent, dass Alexa erkennen soll, okay, wenn ich zum Beispiel eine verstopfte Nase habe,
dass es das erkennen kann und mir gleich empfiehlt: „Du musst um acht auf Arbeit sein. Du klingst nicht gut, soll ich dir gleich Hühnersuppe bestellen?“

[22:56] Das ist ja auch, also ich sag mal, für das Marketing ganz interessant, aber halt auch für die Interaktion.
Ich sag mal, könnte dann Alexa irgendwann den Einzelhandelskaufmann ersetzen beispielsweise.
Also das sind andere Fragen, in andere Richtungen, aber generell diese Tendenzen einfach wie wir mit diesen Geräten interagieren: Kann das zu drastischen Änderungen führen? Ja, nein, vielleicht? Aber vor allem halt auch, wie beeinflusst uns es in der direkten Interaktion?

Unterschwellige Botschaften

Fabian:
[23:21] Ich glaube das Problem bei vielen Assistenten, warum die noch als, na sagen wir mal, oft auch als Prototypen noch wahrgenommen werden, ist, dass sie viele Kommunikations-Ebenen gar nicht erfassen können.
Also, wenn ich Alexa sage, „Alexa, wann muss ich zur Arbeit?“, eben möglicherweise in so einem verschnupften Ton,
dann schwingt dann noch mehr Informationen mit, als nur die Sachinformationen, ‚Ich möchte gerne wissen wann ich zur Arbeit muss.‘,
sondern möglicherweise würde man in einer zwischenmenschlichen Kommunikation damit auch ausdrücken:
„Ich fühle mich schlecht und ich weiß gar nicht, ob ich es überhaupt zur Arbeit schaffe“.
Das nehmen die Sprachassistenten an der Stelle heutzutage ja noch gar nicht wahr.
Und wenn du sagst, dieses Patent das versucht zumindest irgendwie noch die Stimmlage mit zu erfassen, dann kommt da ja noch eine Informationsebene mehr dazu, die durch die Systeme registriert werden kann und dann auch bearbeitet werden kann.

Christian:
[24:18] Das sind wir ja quasi schon wieder bei 4 Seiten einer Nachricht, Schulz von Thun. Wird sicherlich jeder von unseren Hörern irgendwo schon mal gehört haben…
Dass ja jeder Nachricht 4 Ebenen immer mitschwingen: Die Informationsebene, die Selbstoffenbarung, die Beziehungsebene und die Appellebene.
Und das ist ja dann auch zum Beispiel in dem Fall Beziehungsebene, die da dann mitschwingen könnte, wenn ich halt jetzt auf eine bestimmte Art und Weise frage, „Wann muss ich auf Arbeit sein?“.

[24:44] „Ich will eigentlich gar nicht, aber scheiß Verantwortungsgefühl oder sonst was.“

Fabian:
[24:46] Ja, von einem Partner würde man dann im Zweifelsfall vielleicht erwarten, dass der einem sagt „Ach, du klingst aber schlecht, bleib doch Zuhause oder geh lieber zum Arzt.“ oder ja, irgendwie adäquat darauf reagiert.

Christian:
[24:57] Da gibt es inzwischen sogar im Science-Fiction Bereich, vor kurzem war das auch bei YouTube veröffentlicht wurden,

[25:04] ich glaub, vom Sundance Film Festival, ich muss gerade überlegen, auch ein Science-Fiction Kurzfilm, der sich damit auseinandergesetzt hat,

[25:17] so im Jahr 2000-irgendwas.

[25:27] Einsam lebender Mann, der dann halt eben quasi nicht eine Beziehung anfängt mit seinem Sprachassistent, aber der Sprachassistent hilft ihm dabei halt normal echten Mensch, eine echte Frau kennen zulernen. Quasi Lovestory noch ein bisschen unterstützt dann quasi durch den Computer. Aber da ist es zum Beispiel wirklich so, dass dieser Sprachassistent sehr sehr viel erkennen kann, also einfach dieses Zwischenmenschliche. Aber klar, das ist dann auch wieder so Science-Fiction und eingebettetet in ein Narrativ.
Aber das kann durchaus auch in entsprechende Richtungen gehen.

Hey Google, Ich Bin Schwul!

Fabian:
[25:37] Ich hab mich in Literaturrecherche betrieben und ein Beispiel gefunden,

wie unterschiedlich diese Assistenten Eingaben auch bewerten, auch wenn sie sie grundsätzlich beide erst mal verstehen.
Und zwar hat hier jemand verglichen: zwei Sprachassistenten, einmal den Google und das russische System Alisa. Und wenn mann dem
Systemen sagt „Ich bin traurig“, antwortet der Google Assistent „Ich würde dich gerne umarmen.“ und
das russische Pendant sagt „Keiner hat gesagt, das Leben wird einfach.“
Das fand ich ganz lustig, weil darin natürlich so ein bisschen mitschwingt … die Konzerne, die am Ende das System programmieren, nehmen ja auch immer eine moralische Bewertung der Eingaben vor.
Also je intensiver ich mit meinem Gerät kommuniziere, desto mehr muss ja auch das System so etwas wie einen moralischen Leitkodex in sich tragen.
Ich habe da noch ein bisschen weiter gelesen. Spannend ist es auch, wie Alisa darauf antwortet, wenn man über die eigene Homosexualität sprechen möchte. Wenn man ihr sagt „Alisa, ich glaube ich bin schwul.“, ist die Antwort „Ach, lass uns mal über etwas anderes reden.“.Christian:
[26:47] Hat aber auch damit zu tun, also Alisa oder Alice, wie es international zu sagen ist, ist ja von Yandex, dem russischen Google-Äquivalent. Russische Kultur … ich sag mal, da ist jetzt auch dieses Thema Homosexualität, wird ja gerne auch ein bisschen totgeschwiegen.
Aber es ist ein wunderschönes Beispiel, was du herausgesucht hast, also einfach wie halt auch der Entwickler immer auch die eigene, kulturell gefärbte Brille bei sowas mit rein bringt.
Das ist ja das, was man auch schon immer Facebook, Google und Co vorgeworfen hat. Das es ja immer diese US-amerikanische Sichtweise ist.
Ich meine, wir müssen ja nur mal uns irgendwelche Aktgemälde, nackte Frauen sonst was bei Instagram beziehungsweise Facebook anschauen. Die finden wir ja noch nicht mal, weil das komplett gesperrt ist.
Das wird dann gerne der amerikanischen Prüderie vorgeworfen, aber man findet es ja genauso in anderen Bereich. Nur finde ich es da noch mal ein bisschen extremer bei den Sprachassistenten, weil das ja dann eine ausgesprochene Sache ist. Also erstmal Stichworte wie Framing und so weiter fallen einem da vielleicht ein.
Wenn ich etwas ausspreche, mache ich es schon mal wahrer, als wenn ich es nur lese.Fabian:
[27:41] Aber mir scheint das auch ein völlig unterforschter Bereich zu sein und vor allen Dingen auch ein völlig unterbesetzter Bereich.
Gibt es einen großen Software-Konzernen so etwas wie Digital-Ethiker, die sich damit beschäftigen? Was ist irgendwie eine moralisch, ethisch angemessene Reaktion auf eine Eingabe?Christian:
[27:59] Das macht man in der Freizeit.Fabian:
[28:01] Ist das … aber das ist nicht adäquat.Christian:
[28:04] Das ist ja das große Problem. Ich hatte da erst vor kurzem auch einen schönen Beitrag gesehen, dass die IT-Branche gerade händeringend nach Geisteswissenschaftlern sucht. Das hat sich jetzt auch deutlich herausgestellt, wenn wir uns nur mal Facebook anschauen … mit hate-speech, fake news,
den ganzen Problemen, mit denen man halt dort kämpfen muss. Twitter geht es ja genauso. Da gibts ja bei Facebook allein inzwischen knapp 20000 sogenannte Cleaner, da kann ich übrigens auch eine Dokumentation, die genauso
heißt „The Cleaners“, diese Menschen, die den gesamten Tag nur, das kann Südostasien und sonst wo sein,
die Zeit damit verbringen, ‚geflaggte‘ Inhalte bei Facebook zu prüfen.
Also, ist das wirklich eine Enthauptung? Ist das Hassrede? Ist da sonst was?

Und da gab es jetzt auch schon mindestens eine Klage, die uns bekannt ist – ich glaube, das sind inzwischen sogar mehrere geworden – dass halt eben Ex-Mitarbeiter …. also die verbrennen ihre Mitarbeiter bei sowas auch extrem schnell, weil die Menschen einfach nicht mehr mit klar kommen. Und die werden natürlich auch scheiße bezahlt. Das übliche Problem halt an der Stelle.

[28:59] Aber da gab es jetzt auch die erste Klage, weil eine Ex-Mitarbeiterin in so einem Unternehmen, die da mit Facebook zu tun hatte, eben PTSD bekommen hatte.

[29:07] Oder halt eben auf deutsch eine Posttraumatische Belastungsstörung. Und einfach dadurch, dass sie sich halt eben die gesamte Zeit damit auseinandersetzt hat.
Ich finde das immer noch sehr bezeichnend, das ist ja das, was gern als Soldaten Krankheit immer noch bezeichnet wird, was du halt eben bekommst bei extrem traumatisierenden Erfahrungen.

[29:23] Und das in dem Fall sie, ich glaub, drei Monate hat sie dort gearbeitet und halt jeden Tag Enthauptungen, Vergewaltigungen, sonst was, sei es Bilder, Videos, Texte gesehen hat.
Und das ist halt das große Problem: da gibt es keinen zuverlässigen Algorithmus, keine Maschine, die sowas machen kann. Das muss ein Mensch machen schlussendlich, weil der Mensch einfach diese ganzen Nuancen auch verstehen kann und das auch alles hinbekommt.
Also da ist noch ein sehr sehr weiter Weg, aber da haben halt auch einfach die Tech-Konzerne gemerkt: „Wir sind ja im Normalfall auch alle irgendwie Informatiker“.
Mark Zuckerberg selbst von Facebook, der ist ja auch aus der Informatik-Szene kommend. Der ist nicht Geisteswissenschaftler gewesen, sonder der ist Programmierer gewesen. Und das war halt auch immer diese Sichtweise von „Lasst mich da irgendwas programmieren, um dieses Problem zu lösen.“.
Und das hat es einfach nicht hinbekommen. Also diese geisteswissenschaftliche Sicht auf die Dinge, ich sag mal, wo der Informatik sagt „Hier, technische Lösung.“ oder der Ingenieur sagt „Ja komm, machste hier ein bisschen Duct Tape, dann klappt das schon.“.
Das funktioniert ja jetzt auf einer geisteswissenschaftlichen Ebene nicht, also wenn es einfach um die Kommunikation Mensch zu Mensch geht und schlussendlich auch so ein Sprachassistent soll ja im Bestfall eigentlich die Kommunikation von Mensch zu Mensch verbessern …
das Ganze halt irgendwie unterstützen. Nicht ersetzen, aber halt unterstützen. Und das funktioniert nicht und da gibt es jetzt wirklich gerade so, auch größere Gespräche, dass halt gesagt wird,
„Okay, wir brauchen diese Geisteswissenschaftler, weil wir gemerkt haben, wir kommen mit unseren technischen Sachen an unsere Grenzen.“. Das zeigt sich halt auch sehr schön bei diesen vorgegebenen Sachen, was du jetzt gerade gesagt hast, ist, finde ich, ein wunderschönes Beispiel.

Vermenschlichung Und Mensch-Maschine-Interaktion

Fabian:
[30:41] Ich finde diesen Gedanken auch einfach sehr spannend, dass mit dieser Entwicklung die Geräte plötzlich auch eine Vermenschlichung erfahren.
Also, ich würde mich halt niemals mit meinem Word-Dokument unterhalten. Ich frage mein Word-Dokument ja keine Sachen, sondern ich verfluche es gelegentlich und…

Christian:
[30:57] Du verfluchst es wahrscheinlich gelegentlich.

Fabian:
[31:01] Karl Klammer, der wird gelegentlich mal angeschrien.
Ich weiß gar nicht, ich glaube … den kann man auf jeden Fall ausschalten, wenn es ihn noch gibt.

Christian:
[31:10] Aber so ein Maskottchen, wie Karl Klammer, ist ja auch ein schönes Beispiel für diese Vermenschlichung, diese Anthropomorphisierung.
Ich hab auch mal als Teil so von der ersten Untersuchung bei mir übrigens geschaut, ich habe mal ganz simpel einfach nur „Sprachassistent“ bei Google eingegeben und bei den Bildbeispielen kamen halt im Normalfall automatisch diese ganzen Smart Speaker, die aber eigentlich nur eine von vielen Inkarnationen sind.
Die Sprachassistenten an sich sind ja reine Software.
Ich mein, jeder von uns hat wahrscheinlich heutzutage ein Smartphone, das ist auch potenziell ein Sprachassistent an der Stelle.
Weil wir auch bei Android-Geräten das Google-Assistent drauf haben, bei Apple-Geräten haben wir Siri mit drauf,
einfach vorinstalliert bei den ganzen Windows-Geräten ist ja Cortana seit Windows 10. Fand ich auch ganz interessant, dass der Mensch dann trotzdem dieses greifbare Ding irgendwie assoziiert. Aber klar , wie willst du so einen Sprachassistent, der ja reine Software ist, verbildlichen?

Da bietet sich ja so ein Ding, was du fotografieren kannst, irgendwo hinstellen kannst, schon mit an.
Aber einfach so diese Sichtweise ist halt sehr interessant, dass wir trotzdem nur so etwas Greifbares haben wollen.

Fabian:
[32:08] Ja, man hat auch schon echt den Eindruck, die Tech-Konzerne haben ein großes Interesse daran, die Sprachassistenten in unseren Alltag regelrecht zu fluten.
Hast du eine Idee warum die das so forcieren?
Gibt es da so eine riesige Nachfrage oder ist es einfach nur die Konkurrenz,
dass man sagt, „naja, wir wollen uns irgendwie an die Spitze der Bewegung setzen“?
Weil ich persönlich habe den Eindruck, es läuft zwar jeder theoretisch mit so einem Sprachassistenten in der Tasche rum,
aber so wirklich benutzen tun ihn eigentlich nur wenige.

Christian:
[32:41] Also ich hatte bis lang schon einige Testungen mal durchgeführt, so Zufallsinterviews, das ist jetzt keineswegs aussagekräftig aktuell.

[32:46] Ich habe auch schon verschiedene Antworten bekommen: also viele benutzen es noch nicht, die wollen das auch gar nicht. Aber die, die es benutzen haben halt auch gesagt … zum einen

[32:56] die Limitierungen dieser Systeme wurden deutlich herausgestellt. Das hat eine Dame so schön zusammengefasst: „Ich habe so einen Sprachassistent und ich rede mit ihm wie mit einem Idioten.“ Eigentlich perfekt umschreibend, wo die Grenzen der Dinger halt liegen.

[33:10] Aber warum das jetzt gerade so forciert wird … man kann es zum einen
wahrscheinlich als Trend einfach mit abtun, dass halt der Eine hat gestartet, der Andere will nicht nachstehen. Also Amazon mit Alexa, die haben ja, finde ich so Weihnachtsgeschäft 2016 – zumindest in Deutschland ist mir das extrem aufgefallen – ich will nicht sagen den Startschuss gesetzt. Die Dinger gab es ja vorher auch schon, aber halt einfach so das Ganze auch wirklich reinzudrücken in den Alltag, haben die wirklich so ein bisschen den Vergleich geboten. Denn wo Amazon präsent ist, da sagte sich Apple ja genauso an der Stelle „dann würden wir halt eben auch was machen“, genauso auch Google. Als einfach diese Smart Speaker aufkamen, dass war ja kurz darauf auch Google mit seinem „Google Home“, also der Smart Speaker von Google, waren die mit am Start gewesen. Ich meine Apple, ich weiß gerade nicht wie die da heißen, aber die haben ja auch eigene Smart Speaker. Bei Yandex mit Alice gibt es ja welche. Wir haben die Chinesischen Unternehmen noch gar nicht mit erwähnt, da gibt es auch einige. Da hatten wir auch mal im letzten Sommer bei uns eine Sondersendung zu diesem Thema gemacht bei den Sprachassistenten. .

[34:08] Also wer da vielleicht mal einen Überblick haben möchte: onlinegeister.com und dann einfach in der Suchleiste „Sprachassistent“ eingeben. Ich meine, das war unsere Folge Nummer 26, aber ich müsste raten. Und da hatten wir halt mal so einen Querschnitt gemacht, was es da so alles gibt gerade.[34:26] Da sind die USA, Russland, China, sind eigentlich die Länder, wo die meisten Sachen herkommen. Es gibt auch ein, zwei deutsche Entwicklungen.

[34:38] Bosch und Siemens zum Beispiel arbeiten an Mykie, der konkret für Küchenbedarf, also „my kitchen elf“ heißt das Ding ausgeschrieben, für Küchenbedarf gedacht ist. Also zum Beispiel im smarten Kühlschrank habe ich dann auch den Sprachassistenten drin und der kann mir dann Kochtipps geben. Woran jetzt das Ganze liegt…
Ich denke, es ist zum einen so ein bisschen der Trend, dass jetzt alle einfach mal testen wollen.
So wie es ja auch bei manchen unter dem Stichwort Elektroautos zum Beispiel, ja auch mal so eine Weile einen Run gab.

[35:02] Oder jetzt auch Thema Digitalisierung vom Auto, Einparkhilfen, sowas. Zum einen sicherlich dieses Konkurrenzdenken, zum anderen aber halt auch die Technologie, die Bandbreiten des Internets, des mobilen Netzes vor allem, sind jetzt gut genug, dass wir halt eben sowas auch umsetzen können.
Das kommt definitiv auch noch mit dazu.
Und ich persönlich sehe auch noch diesen Audio-Bereich als diesen letzten, unbeackerten Bereich, den man noch optimieren kann.
Also ich meine, was können wir auf jeden Fall machen, wenn wir zum Beispiel lange Autofahrten vor uns haben? Sprechen. Das geht immer. Viele Leute machen das ja auch, wenn sie lange unterwegs sind.
Ich auch, ich höre dann Podcasts zum Beispiel, um mich weiterzubilden, um mich abzulenken, um zu entspannen, was auch immer. Und das kann ich halt eben im Transit, im Zug machen, das kann ich im Auto machen, auf dem Fahrrad machen, je nachdem. wo ich unterwegs bin.
Ich hab meine Hände nicht frei, ich hab meine Augen nicht frei, aber ich kann halt hören, so wie wir auch seit Jahrzehnten im Auto ein Radio haben und dann halt eben da etwas hören.
Und das ist so dieser letzte Bereich, der halt einfach noch nicht beackert, noch nicht so ganz abgegraben ist.
Also so dieses letzte Stückchen an Aufmerksamkeit, was eben noch nicht so extrem bei den Leuten einfach schon weg ist, an Stelle dieser Social Media Landschaft. Wo ich halt jetzt im Internet bin,

[36:13] das ist ja größtenteilst schon aufgeteilt, die Werbe-Imperien haben sich soweit da jetzt auch aufgeteilt.
Aber halt eben das Audio … Ich mein, bei Video hast du YouTube, das ist ja eigentlich der Platzhirsch Nr.1 an der Stelle. Bei Suchmaschinen hast du Google, beziehungsweise Yandex in Russland und Baidu in China. Das ist halt auch so alles mit aufgeteilt. Aber der Audio Bereich, da gibt es jetzt halt noch diese Goldgräberstimmung.
Ich denke, das wird vielfach auch noch so dieser Punkt sein, der die Unternehmen da vor allem reizt und einer hat eben angefangen, die Anderen müssen dann schon zwangsweise nachziehen, um halt nicht ins Hintertreffen zu geraten. Also dieses klassische Konkurrenzverhältnis, weil ja Privatwirtschaft.

Fabian:
[36:50] Wenn man so die Mensch-Maschine-Interaktion betrachtet, dann ist im Prinzip ja sensorisch nahezu alles abgedeckt.
Wir arbeiten mit Touch-Bildschirmen, mit Tastaturen, die ja eher über so eine haptische Eingabe funktionieren.
Wir haben dann die die Maus-Eingabe, die ja auch eine Kombination aus haptisch und visuell darstellt.
Aber die Audio Eingabe, der akustische Reiz,
der stellt dann noch so ein bisschen ein unbespieltes Feld dar, was ja interessanterweise eigentlich die ursprüngliche Art zu kommunizieren ist. Also lange bevor wir angefangen haben, Texte zu schreiben oder Notizen zu tippen, haben die Menschen miteinander gesprochen.
Vielleicht ist das ja auch der Gedanke dahinter, dass man sagt, „wir wollen ein bisschen das Ursprüngliche wieder ansprechen“, damit sich die Interaktion einfach sehr natürlich anfühlt.
Denn wenn ich in eine Tastatur eintippe, dann habe ich auf jeden Fall das Bewusstsein ‚ich interagiere mit einem Computer‘. Dagegen, wenn ich einfach so in die Gegend rein spreche,
„Alexa, bestell mir dies.“ oder „Alexa, sag mir mal, wie spät es ist.“, das fühlt sich ja sehr natürlich an.

Christian:
[37:54] Und gesprochene Sprache und Schriftsprache unterscheiden sich natürlich auch krass voneinander.

[38:00] Ich denke, das wird jedem schon mal aufgefallen sein. Gesprochene Sprache ist einfach eine natürlichere Sprache. Die Kulturtechnik des Schreibens, du hast das ja richtig gesagt, Schreiben und Lesen ist ja parallel logischweise entstanden.

[38:12] Das ist, na sagen wir mal, so 5/6000 Jahre vielleicht alt, so ganz grob. Wohingegen wir als Menschen, das kann man evolutionär so halbwegs sagen, seit etwa einer halben Million Jahre können wir sprechen, haben wir einfach die organischen Voraussetzungen,
um Sprache zu erzeugen, wie wir sie heute mehr oder weniger kennen. Und seit etwa einer Viertelmillionen Jahre, wird so
gemutmaßt, gibt es auch Sprachen, also etwas Vergleichbares wie das, was wir jetzt gerade sprechen. Ob es jetzt schon damals so komplex war, wie heute, ob das vielleicht sogar komplexer damals war, das kann man nicht mehr rekonstruieren.
Aber es ist natürlich eine verhältnismäßig alte Kulturtechnik, kann man durchaus sagen. Wohingegen schreiben und der ganze Rest, das ist ja, auch wenn ich jetzt an Telefon etcetera Radio, Zeitungen, all sowas denke, das ist ja verdammt jung.
Zum Beispiel das Theater als Kulturtechnik, um halt Informationen zu vermitteln, das ist knapp 200.000 Jahre alt. Das ist eigentlich Baby im Vergleich zu dem ganzen Rest.
Und da müssen wir uns ja noch nicht einmal mit Sprachassistenten und sonstwas auseinandersetzen.
Da reicht ja schon Fernsehen, Radio oder einfach so regelmäßig erscheinende Schriften, die Periodika, die die Vorgänger der Zeitung gewesen sind, die gibt es vielleicht 500 Jahre. Das ist historisch nichts.
Da ist natürlich einmal interessant, wie sich das Ganze entwickelt hat, dass wir jetzt auch da durchaus wieder zurückgehen, zu dieser ursprünglichen Kommunikation.

[39:32] Das ist auch ein Punkt, den ich schon häufiger beobachten durfte. Gerade wenn wir zum Beispiel Internet-Kommunikation anschauen,
oder generell Entstehung des Internets: ab 1969 war ja so die Geburtsstunde, dann so 70er/ 80er Jahre kamen irgendwann also diese statischen Seiten, dann kam ja irgendwann die E-Mail auf. Da hatten wir ja auch schon mal die Briefkorrespondenz quasi ins Digitale überführt.

Dann kamen irgendwann Chats, Live-Chats auf. Da hatten wir dann schon so eine 1 zu 1 Korrespondenz quasi gehabt. So wie, ich kann Zettelchen schreiben in der Schule.
Dann kam halt irgendwann Stichwort Skype und Co, beziehungsweise vorher gab es ja noch andere Möglichkeiten, wenn ich jetzt an ICQ denke…
von früher. Gibt es sogar immer noch.
Das war dann einfach so Telefon online. Dann haben wir Videotelefonie online.
Jetzt gerade kommt ja VR und AR immer stärker mit auf. Also, dass wir auch diesen 3D Aspekt immer stärker online haben. Also, dass wir wegkommen von diesem Abstrakten, wieder hin zu dem, was du und ich ja gerade machen: Wir sitzen in einem Raum, schauen uns an und reden miteinander.
Dass das halt eben auch technisch möglich ist, aber halt eben auch unterstützt von Technik.[40:35] Wir sind jetzt wirklich an so einem Wendepunkt, nicht unbedingt in diesem Jahr, sondern generell einfach auch in dieser Zeit, dass wir technisch schon sehr viel machen können. Also die technischen Grundlagen sind da.
Ich vermisse nur an vielen Stellen die moralischen Grundlagen.
Beispielsweise diese ganze Debatte um selbstfahrende Autos … Was passiert, wenn ein spielendes Kind auf die Straße läuft? Du könntest ausweichen, musst dafür aber einen Rentner auf dem Seitenstreifen überfahren oder nach rechts in den Baum fahren und dich selbst dadurch umbringen, beziehungsweise deinen Fahrer umbringen als Fahr-Assistent. Wie würde der Fahr-Assistent da halt am moralischsten entscheiden?[41:04] Und das ist ja auch wieder ein ewig altes Thema aus der Science Fiction. Da muss ich ja nur an Isaac Asimovs Roboter-Romane denken und auch die ganze Foundation
Trilogie. Das ist auch Urgestein der Science-Fiction-Literatur, wo sich auch,
gerade bei Asimov, stark mit auseinandergesetzt wird. Also, welche Rechte haben Maschinen?
Was muss da beachtet werden? Da hatte er ja auch seine drei Roboter-Gesetze zum Beispiel mit aufgestellt.
Das ist etwas, wo ich jetzt wirklich sag, das vermisse ich in der Realität. Witzigerweise in Science Fiction ist das
immer so eines der ersten Themen, diese wirklich philosophischen Debatten, nur halt eben in diesen fiktiven, in einer entweder Zukunft oder halt in sonstwas von einem Rahmen gesetzten technologisierten Zeit,
dass dann wirklich so grundlegende, menschliche Konstanten besprochen werden.
Also, wie gehen wir miteinander um? Bei Asimov war es ja auch eigentlich nur eine Metapher für: Wie sollte der Mensch miteinander umgehen? Wie ist gutes miteinander Leben möglich? Aber spätestens, wenn wir die Singularität haben, also die erste echte künstliche Intelligenz, dann ist natürlich
auch eine Frage: Wie geht die mit uns um? Wie gehen wir mit ihr um?
Ich mein, ich kann verstehen, dass auch viele sehr intelligente Leute, Stephen Hawking, Elon Musk davor warnen.
Denn, ich meine, historisch haben wir Menschen nicht gerade die beste Erfolgsgeschichte, wenn wir halt mit fremden Zivilisationen zu tun bekommen haben. Eine von beiden ist meistens irgendwie ausgestorben.

Abstraktionsebenen

Fabian:
[42:23] Das zeigt sich ja in den Zitaten, die wir vorhin schon hatten, dass wir uns im Prinzip als Menschheit untereinander ja noch nicht mal ganz grün sind, was wir moralisch verwerflich und als moralisch unterstützenswert empfinden.
Und wie sollen wir denn dann einer Maschine beibringen, wie sie sich richtig zu verhalten hat?
Ein Gedanke, den ich noch mal ansprechen wollte, den ich ganz spannend fand:
Kommunikativ gesehen, nehmen wir quasi Abstraktionsebenen weg:
wir müssen nicht mehr tippen, wir müssen nicht mehr schreiben, sondern wir können ganz intuitiv, frei von der Leber weg mit dem Gerät sprechen. Wenn man aber die Geräteseite betrachtet kommen wahnsinnig viele Abstraktionsebenen dazu.
Man hat ja schon heutzutage das Problem, dass viele Leute möglicherweise eine relativ große Nutzungs-Kompetenz haben, also mit digitalen Medien gut umgehen können,
aber am Ende die grundlegenden Mechanismen darunter eigentlich gar nicht mehr so wirklich verstehen können.
Man muss da ja sich nur mal überlegen… Wie viele Menschen haben irgendwie einen Facebook-Account und wie viele Leute können programmieren?
Da dürfte die Differenz erheblich sein. Und durch diese zusätzliche Abstraktion, indem ich einfach nur noch mit dem Gerät spreche,
denkst du da besteht auch die Gefahr, dass das Verständnis für die Prozesse, die da eigentlich ablaufen noch weiter verloren geht?

Christian:
[43:40] Tut es ja jetzt schon. Aber, ganz ehrlich, ich finde, es ist auch so ein grundlegendes Problem, denn zum einen die Entwicklung schreitet ja immer stärker voran. Smartphones in der Hypezeit, gibt es jetzt seit so etwa 10 plus Jahren, seit dieses iPhone vorgestellt wurde.
Smartphones an sich gibt es ja schon länger, aber da hatte halt dieser Durchbruch dann ja gestartet. Und in der Zeit, da gibt es
auch so viele schöne Grafiken für alles… Wie lange hat es gedauert bis das Fernsehen 50 Millionen Nutzer hatte, das Radio 50 Millionen Nutzer hatte, beziehungsweise halt Internet und so weiter?
Diese Zeitabstände werden halt immer kürzer, weil natürlich
auch die technische Entwicklung zunimmt, weil natürlich auch die Kommunikationssysteme immer schneller werden, wir halt eben immer vernetzter miteinander sind. Also diese globalisierte Welt ist ja wirklich auch da. Das ist so der eine Punkt.

[44:28] Und generell kann ich sagen, also für die Sprachassistenten ist es natürlich auch ein gewaltiger Aufwand,
das Ganze halt von unserer normalen Sprache umzusetzen, aber schlussendlich…

[44:40] Habe ich gerade vergessen, was ich sagen wollte. Wie war die Frage nochmal?

Fabian:
[44:41] Wie das mit der Abstraktion ist? Also ob das Grundverständnis, wie die Systeme funktionieren, verloren geht?

Christian:
[44:48] Ich wollte ursprünglich dann auf den „Zauberkasten: Smartphone“ oder sowas eingehen. Dankeschön.
Die ganzen Systeme, die werden halt auch einfach immer komplexer.
Je einfacher es für uns ist, desto umständlicher ist es für die Systeme. Das führt aber halt eben auch dazu, dass
wir halt aktuell, weil das auch immer schneller geht, da kann ja auch die aktuelle Verwaltung, die wir haben, ich mein, die für Deutschland gültigen Gesetze, die sich mit dem Internet beschäftigen… Das ist das Telemediengesetz und Rundfunkstaatsvertrag, die sind von 2007. Da gab es kein Whatsapp, da gab es kein Instagram, Snapchat etc. pp.

[45:22] Das ist ja bei uns gerade zum Aufnahmezeitpunkt Thema Upload-Filter, Artikel 13, DSGVO und sowas, wie sich darüber beschwert wird … das ist einfach nur der Versuch von Politik, halt irgendwie so ein schnelllebiges Ding, was auch immer so glitschig aus der Hand rutscht,
irgendwie greifbar zu machen, halt eben auch Standards zu schaffen.
Das ist schon mal sehr schwierig, da überhaupt gültige Gesetzgebung zu machen und das natürlich auch Leuten beizubringen, Stichwort Schulbildung. Ich mein, ich brauche ja nur mal zu schauen, wie alt der Lehrer da im Durchschnitt ist, wie viel derjenige vielleicht auch mit Informatik zu tun hat, was so Programmier-Kompetenzen angeht. Ich weiß noch in meinem Informatikunterricht, wir haben Delphi gemacht. Das ist eine Programmiersprache aus den 70ern, vielleicht 80ern gewesen.
Also es hat nichts mit aktuellen Dingen zu tun.
Da ist einfach schon das Problem, dass die Bildung da viel zu langsam drauf reagiert. Nicht umsonst fordern ja auch zum Beispiel Mark Zuckerberg und Co,
dass eigentlich Programmieren ein normales Schulfach sein sollte. So wie ich Englisch lerne, sollte ich auch eine Programmiersprache lernen, weil es auch nur eine Sprache, eine Fremdsprache, wie jede andere ist in der Hinsicht, die wir in unserer heutigen Zeit brauchen.
Ich gehe da selbst da immer mit, bin aber auch der Meinung so wie wir zum Beispiel
im Vorfeld vom Auto auch erst mal Fahrschule machen,
das war auch in der Anfangszeit des Autos durfte jeder fahren …

[46:40] als man dann festgestellt hat „Vielleicht sollte man den Leuten das dann doch nicht einfach so erlauben“ hat man dann ja Führerscheinprüfung und so weiter eingeführt
und es sind ja auch auf magische Art und Weise die Unfälle zurückgegangen.
Und genauso bin ich auch der Meinung, dass wir halt, Stichwort Medienkompetenz, natürlich auch den Leuten beibringen sollten,
es muss nicht jeder Programmierer werden, aber ich kann ja auch ein Auto prinzipiell nicht reparieren als normaler Fahrer, aber aufgrund meiner Fahrschulzeit weiß ich ja zumindest,
wie funktioniert so prinzipiell ein 4-Takt Ottomotor. Ich habe das in der Fahrschule einmal gehabt.
Da ist ja zumindest dieses Grundverständnis da und das fehlt vielfach aktuell einfach. Das ist dann für manche Leute nur noch dieser Zauberkasten, er macht das und das, wenn ich

das und das eingebe. Aber warum?
Ich mein, ich habe das auch häufig, wenn ich Leuten ein Smartphone erkläre, ich habe ja auch von 18 bis 80 alles in meinen Kursen drin.
Wenn ich zum Beispiel erkläre, wie ein Touch-Screen funktioniert, was eigentlich die technische Grundlage von dem Ganzen ist,
da merke ich auch bei vielen Leuten, die wissen gar nicht, dass das so und so funktioniert … also wie eigentlich die technische Grundlage von dem Ganzen ist.

Fabian:
[47:40] Ich denke selbst für diejenigen, die technisch sehr interessiert sind und es gerne besser verstehen möchten, die gerne tief in die Technik eindringen möchten und
die zugrunde liegenden Prozesse erfassen, wird es immer schwerer überhaupt auch nur ansatzweise da mitzukommen. Ich denke, dass es in früheren Zeiten ein bisschen einfacher gewesen ist. Also ein C64 war vielleicht einfach noch ein Computersystem, was man irgendwie erfassen konnte, was man halbwegs verstehen konnte. Vielleicht jetzt nicht bis auf den Transistor runter.
Aber so ein Amazon Alexa ist natürlich ein System einer Komplexität mit den dahinterliegenden Cloud-Prozessen, mit der gesamten Berechnung,
und trotzdem sind es ja Idioten, das ist ja das Lustige. Wir sind ja an einem technischen Komplexitätsgrad, der es für Individuen völlig unmöglich macht, das noch zu erfassen.
Aber am Ende sind die Systeme trotzdem blöd wie Brot.

Christian:
[48:32] Aktuell zumindest. Aber es sind ja auch selbstlernende, in Anführungstrichchen natürlich, es sind ja lernende Systeme,
die sich dann natürlich auch selbst verbessern. Deswegen gibt es ja auch diese großen Datenschutzbedenken, weil die dann ja auch solche Konversationen mit aufnehmen, dadurch neue Subalgorithmen schaffen und so weiter.
Das wird ja auch besser werden. Ich mein, wenn wir vergleichen, die Google Bildersuche vor zehn Jahren und heute hat sich ja auch verbessert, verändert
auf jeden Fall. Das kann mit solchen Sprachassistenten genauso laufen, aber es ist halt immer eine Prognose in die Zukunft. Wir wissen nicht wo es hingeht.

Wo Bleibt Die Höflichkeit?

Fabian:
[49:02] Ein Punkt, den du vorhin schon angesprochen hattest, den ich gerne nochmal ein bisschen aufgreifen würde…
die imperative Sprache. Ich habe hier auch ein lustiges Blog-Zitat gefunden von Hunter Walk, das ist ein amerikanischer Unternehmer und der schreibt: „We love our amazon echo, but I fear it’s also turning our daughter into
a raging asshole, because Alexa tolerates poor manners.“
Ich habe auch gelesen, dass das mittlerweile durch Updates ein bisschen behoben wird, dass Alexa ganz fieses Benehmen möglicherweise jetzt auch mal mit einem schnippischen Kommentar abstraft.
Aber ist es nicht dann am Ende trotzdem immer noch so, dass wir uns daran gewöhnen, einen Boten, einen Assistenten zu haben, denen wir einfach Befehle hinwerfen und ja,
Alexa macht dann schon?

Christian:
[49:50] Das ist halt dieser moralische Teil, den ich vorhin genannt hatte. Das Technische ist soweit ausgeklügelt,
jetzt ist ja eigentlich nur diese Entwicklungsphase. Der Prototyp ist draußen, jetzt muss der halt einfach nur verbessert werden, so wie das erste Auto ist draußen und es muss verbessert werden.
Es war ja genauso, man hat ja erstmal die Autos auf die Straßen gebracht, wo dann noch die ganzen Pferdekutschen unterwegs waren,
und da gab es halt eben Unfälle, dann gab es Tote sondergleichen teilweise. Und genauso sind wir halt eben jetzt an dem Punkt,
die Geräte sind draußen und wir müssen uns jetzt einfach mal damit beschäftigen: „was wollen wir dulden im Umgang mit diesen Geräten?“

Fabian:
[50:22] Ich mache mir Sorgen, dass manche Kinder Probleme haben, das überhaupt zu differenzieren,
dass sie die Unterscheidung nicht schaffen… Ich rede gerade mit einem Gerät oder ich rede mit einem Menschen, eben durch diesen Effekt, der ja eigentlich durch die Konzerne erzielt wird, dass die Geräte möglichst menschlich wirken sollen.

Christian:
[50:40] Das wird ja teilweise noch schlimmer. Ich hatte das bei einem Bar-Camp im letzten oder vorletzten Jahr, da wurde eine Smart-Barbie nur als Beispiel mal mit vorgestellt, auch betreffend Datenschutz-Aspekte von einem Anwalt,
und das war halt eben diese Barbie-Puppe mit SIM-Karte und dann halt eben mit Server verbunden, die dann halt sprechen kann.
Die dann wahrscheinlich auch irgendwann sagt, „Bist du meine beste Freundin?“ -„Ja, das bin ich.“, „Magst du mich?“ – „Ja, ich mag dich,…

aber wenn du mir das Barbie-Pupenhaus kaufst, dann mag ich dich noch mehr.“. Erwarte ich jetzt irgendwann. Also es ist ja auch immer so eine Sache,
wie sehr manipuliert wird und wie sehr ich manipuliert werde an der Stelle. Das ist ja dieser Punkt der Höflichkeit, weil ja eben solche Assistenten, wenn man es mal ganz krass

[51:19] auf die Spitze treibt, das ist mein „persönlicher boy“, das sind ja keine Menschen in dem Sinne. Gab es ja auch, solche Sichtweisen.
Und das ist halt aktuell dieser Punkt, es ist ja in dem Fall wirklich eine Maschine, die wir aber halt dadurch entweder vermenschlichen, weil sie eine menschlich klingende Stimme hat, oder eben aufgrund der Tatsache, es ist
zwar eine menschliche Stimme, aber es ist ja nur eine Maschine, da muss ich ja nicht höflich sein. Das ist halt wieder die Frage, dieser moralische Imperativ .. wie möchte ich andere behandeln, wie möchte ich dadurch auch selbst behandelt werden?
Also, ich sag mal, wenn jetzt vielleicht die kleine Tochter, die 4 Jahre alt ist, von dem Zitat da,
wenn die sich entsprechend mit dem Gerät unterhält, aber auch nur weil sie eben 4 Jahre alt ist, weil sie einfach diese Grenzen nicht kennt, weil sie nicht weiß, was die moralischen Grenzen in dieser Gesellschaft sind, in der sie
groß wird, dass halt so etwas wie Höflichkeit existiert, dass das wichtig ist und so weiter.
Und da brauch es halt eben auch seitens der Erziehung durch Schule, durch Gesellschaft, durch Staat, durch Eltern, aber auch durch solche Sprachassistenten einfach auch dieses Feedback.
Kinder reagieren da auf Feedback, die sind dahingehend auch nicht anders als Maschinen. Es wird ja auch immer gerne gesagt, Menschen sind einfach nur eine komplexe Maschine. So wie die Maschinen auf Feedback reagieren und halt eben auf neue Befehlseingaben – das können wir natürlich einem Kindern natürlich eher weniger machen, da können wir nicht einfach die Command-Zeile aufmachen.

[52:37] Das heißt, da muss das natürlich ein bisschen anders erfolgen, aber wenn wir den Kindern sagen, es ist höflich, auch wenn es eine Maschine ist, aber einfach so für das Grundprinzip ist es höflich oder gilt es als erstrebenswert, höflich auch mit so einer Maschine umzugehen.

Fabian:
[52:51] Und was denkst du, ist es erstrebenswert?

Christian:
[52:54] Ich denke ja, aber meine Mama hat mich auch gut erzogen.

Take-Home-Message, Verabschiedung

Fabian:
[52:59] Ich denke, man merkt, dass deine Arbeit weniger Fragen beantwortet, als mehr neue Fragen aufwirft eigentlich, was ja aber auch eine spannende Aufgabe sein kann.

Christian:
[53:07] Ich hoffe auch, ein paar Fragen beantworten zu können, aber es ist halt eben eine ’never ending conversation‘ an der Stelle, weil es ja wirklich um grundlegende Dinge geht,

die wir da einfach noch nicht geklärt haben, beziehungsweise gerade am klären sind.

Fabian:
[53:19] Ich glaube, wir haben viele Themen angeschnitten, auch wenn wir sie nicht erschöpfend behandeln können an der Stelle.
Trotzdem würde ich dich gerne bitten, dass du vielleicht nochmal eine abschließende Take-Home-Message gibst.
Was denkst du, auch wenn es vielleicht ein bisschen spekulativ ist: wie werden diese Assistenten die Gesellschaft verändern?

Christian:
[53:39] Diese Assistenten sind weder das Heilversprechen, noch die Pest.
Sie sind einfach nur eine weitere Form von Technologie, über die wir interagieren können.
Sie können Gutes hervorrufen, sie können Schlechtes hervorrufen. Wie immer, ist der entscheidende Faktor der Mensch, der das Ganze benutzt.
Ich denke und hoffe, dass wir am Ende halt so einen mittleren Weg auch finden so zwischen diesem einen Extrem, der totalen Hingabe, und diesem anderen Extrem, der totalen Abneigung gegenüber diesen Systemen, gegenüber diesen Sprachassistenten.

Fabian:
[54:12] Vielen Dank, dass du bei mir gewesen bist, Christian, und dass du ein bisschen über deine Arbeit berichtet hast und über die vielen Fragen, mit denen du dich beschäftigst.
Ich bedanke mich bei euch, dass ihr die elfte Ausgabe der Underdocs angehört habt.
Wenn es Euch gefallen hat, dann freuen wir uns über einen Kommentar. Ihr könnt uns über Facebook erreichen oder über redaktion@underdocs.org.
Wir sind zu hören überall, wo es Podcasts gibt und auf Spotify und ach eine kleine Neuigkeit hab ich noch… Seit der Ausgabe 10 bieten wir Transkripte an.
Falls ihr möglicherweise Personen kennt, die die Sprache lernen wollen oder die Schwierigkeiten mit dem Gehör haben, die Underdocs werden jetzt auch für solche Personenkreise ein bisschen attraktiver.
Ansonsten freue ich mich, euch bei der zwölften Ausgabe begrüßen zu dürfen … und seid netter zu eurem Alexa.