Bis 2027: KI vernichtet 83 Millionen Jobs – deinen bald auch? | KRISENSTARK #9 | Episode #412
Shownotes
KI kann Bilder erzeugen – nur keine von dir als CEO: Ich spreche mit Eva Gengler, Gründerin von feminist AI und Doktorandin der Wirtschaftsinformatik. Ihre Mission: Künstliche Intelligenz so zu gestalten und zu nutzen, dass sie patriarchale Strukturen abbaut – statt sie zu verstärken. Und genau das tun KI-Systeme heute leider oft: Sie reproduzieren bestehende Machtverhältnisse – und skalieren sie. In unserem Gespräch wird klar: KI ist kein Spiegel der Wahrheit. Sie ist ein Spiegel unserer Ungleichheit – at scale.
In dieser Folge erfährst du:
- Wie eine KI von Apple Frauen systematisch bei der Kreditvergabe benachteiligt und warum eine Amazon-KI alle weiblichen Bewerberinnen aussortiert hat.
- Wie die Ideologien der Erschaffer von KI wie ChatGPT bestimmen und kontrollieren, welche Antworten und Sichtweisen uns von KI präsentiert werden.
- Warum ich mich bei einem eigenen Experiment zum Thema „Gender Bias” im System (mal wieder) heftig mit ChatGPT gestritten habe.
- Wie du als Nutzerin aktiv Einfluss auf KI-Systeme nehmen kannst – selbst wenn du „nur ein bisschen promptest”.
- Und: Welche typisch weiblich gelesenen Kompetenzen und Stärken in Zukunft an Wichtigkeit gewinnen werden - eine absolute Chance für uns alle.
Wenn du lernen willst, welche Krisen und Chancen KI dir persönlich bietet, ist die Folge ein Must-Hear! Denn: Es geht um nicht weniger als unsere Zukunft.
Auf deine Unabhängigkeit, Natascha
Quellen
Relevante Links (wip)
- Hier findest du Eva bei Instagram.
- Hier findest du Eva bei LinkedIn.
- Hier kommst du zu feministAI.
- Folge Madame Moneypenny auf Instagram.
- Folge mir auf LinkedIn.
- Jobs bei Madame Moneypenny
Transkript anzeigen
Speaker 1: Das bedeutet, es wird auch in Zukunft, wenn das so weitergeht, immer mehr für männliche Anfragen, für männliches Nutzerinnenverhalten passen. Deswegen sollten wir KI nutzen, es auch für unsere Bedürfnisse passt. Wir können da Feedback-Funktionen nutzen, können sagen, Daumen hoch, Daumen runter, können, wie du, ins Gespräch gehen und sagen, hier ist ein Beier. Streiten. Streiten. Auch da ist das wichtig. Und Ende hinterfragen, welches Ergebnis ich bekomme. Ja.
Speaker 2: So
Speaker 2: Das ist in anderthalb Jahren übrigens. 83 Millionen Jobs aufgrund von KI verschwinden und 69 Millionen neu entstehen. Welche davon betroffen sind und ob deiner mit dabei ist, welche Risiken und Chancen das gerade für uns Frauen bereithält, genau das ist das Thema in diesem Podcast. Ich spreche dazu mit Eva Gengler, sie ist Doktorandin der Wirtschaftsinformatik und Gründerin von Feminist AI und ihre Mission ist es, künstliche Intelligenz so zu gestalten und so zu nutzen, dass sie patriarchale Strukturen abbaut. anstatt sie zu verstärken. Denn genau das ist das Problem. KI-Systeme reproduzieren bestehende Machtverhältnisse und skalieren sie. In unserem Gespräch wird also klar, KI ist kein Spiegel der Wahrheit oder der Welt, wie wir sie ganz gerne hätten. Sie ist ein Spiegel unserer Ungleichheit und zwar at scale. In dieser Folge erfährst du, wie eine KI von Apple Frauen systematisch bei der Kreditvergabe benachteiligt hat. und warum eine Amazon-KI alle weiblichen Bewerberinnen komplett aussortiert hat. Außerdem, wie die Ideologie der Erschaffer von KI, zum Beispiel von Chagy B.T. und so weiter, bestimmen und somit kontrollieren, welche Antworten und Sichtweisen uns KI präsentiert und welche Entscheidungen die KI auch trifft. Dieser Aspekt war ein kompletter Augenöffner für mich, dass eigentlich logischerweise natürlich irgendwie leider diejenigen, es erschaffen, ihre Meinungen, ihre Ideologien da rein geben und dass deswegen genau diese Ideologie als Gay milliardenfach verbreitet wird. Außerdem erzähle ich von einem eigenen Experiment mit Chagy Bt zum Thema Gender Bias im System und warum ich mich mal wieder heftig mit Chagy Bt gestritten habe. Außerdem beleuchten wir, wie du als Nutzerin aktiv Einfluss auf KI-Systeme nehmen kannst, selbst wenn du nur ein bisschen promptest.
Speaker 2: und welche typisch weiblichen Kompetenzen und Stärken in Zukunft an Wichtigkeit gewinnen werden, also eine absolute Chance für uns bieten. Also wenn du lernen willst, welche Krisen und Chancen KI dir persönlich bietet, ist diese Folge ein absolutes Must-Heer, denn es geht nichts weniger als unsere Zukunft. Ich wünsche dir viel Spaß und viele Aha-Momente, die ich auf jeden Fall hatte im Gespräch mit der lieben Eva über Macht, über Systeme. über Entscheidungen, die uns alle betreffen. Ja und damit ganz herzlich willkommen. Hi liebe Eva, schön, dass du da bist. Hi, ich freue mich total. Danke für die Einladung. Ja, es war ja auch sehr spontan. Ich glaube, am Montag gab es ja erstmal den ersten E-Mail-Kontakt. Es ist Mittwoch, ja so mag ich das natürlich. Also vielen Dank, dass ihr so spontan auch die Zeit genommen hast. Und Eva, das Thema, das du sozusagen für dich auserkoren hast, ist ja ein hochaktuelles und super, super spannendes. Das ist ja wirklich in aller Munde. Und zwar habe ich gerade nochmal bei dir nachgelesen. Deine Mission ist es, die Welt gerechter zu machen mit feministischer KI. Was ist denn eigentlich? feministische KI.
Speaker 1: Ja, das ist was ganz Tolles, würde ich sagen. Es geht eigentlich darum, dass wir künstliche Intelligenz, also künstliche Systeme nutzen, erst mal sie so zu gestalten, aber dann noch einzusetzen, die Welt gerechter zu machen. Und das können wir auf ganz vielfältige Weisen tun. Also wir können überlegen, wie wir selbst am Ende agieren können mit KI. Wie können wir als NutzerInnen zum Beispiel Chetjubiti vielleicht feministisch nutzen. Aber es geht natürlich auch darum, wie können AnbieterInnen, wie können die die Systeme ja bauen, strukturieren, entwickeln. Was können die eigentlich tun, solche Systeme für einen Zweck zu entwickeln, der die Welt gerechter macht? Und ich glaube, dieser Zweck ist wirklich das Wichtigste, dass wir eigentlich überlegen, was steckt eigentlich hinter der KI, warum wird die eingesetzt und wie können wir das nutzen, die Welt zu verändern, das Patriarchat zu stürzen. haben es gerade so schön. Also was können wir eigentlich tun, Technologie zu nutzen, die Welt zu verändern? Das ist eigentlich das große Ganze dahinter. Und dabei geht es auch nicht nur technisches System, sondern es geht auch darum, eigentlich so grundsätzlichen Ansatz dahinter. Wer ist inkludiert? Wer partizipiert an so einem Prozess? Welche Daten sind da drinnen? Ich würde sagen, ist sicher ein aktivistischer Prozess. Es ist was Wissenschaftliches, was ich auch tue. Es passiert irgendwie in Firmen und es passiert aber auch zum Beispiel im kreativen Bereich. Also ich würde sagen, es ist wirklich ein ganz breiter Ansatz, der sich aber damit beschäftigt, wie wir künstliche Intelligenz nutzen können, die Welt gerechter zu machen. Ja super und ich meine, es ist ja so eine machtvolle Bewegung, die da ja gerade passiert. Die sollten wir natürlich, wenn nicht die Chance, welche denn dann, die Welt gerechter zu machen. Ich möchte dir einmal von einer Erfahrung erzählen, liebe Eva. Ich streite mich regelmäßig mit Chechibiti. Und so habe ich mich auch wieder mit Chechibiti gestritten. So bisschen in Vorbereitung auf unser Gespräch. Aber ich dachte mal, frage ich doch mal Chechibiti. Ich so ein bisschen... Ach genau, ich hatte gehört von jemand anderem, wirklich nur vom Herren sagen, dass Programme wie Chet Chibiti bessere Ergebnisse liefern, wenn man dem Programm die Rolle Autor gibt als Autorin. Und da habe ich gesagt, okay, interessant. da habe ich mal gefragt, frag ich doch mal nach. Da habe gefragt, hey, stimmt das eigentlich, dass du bessere Ergebnisse lieferst und so weiter? Nein, natürlich nicht. Wobei eine Nuance war darin halt schon, okay.
Speaker 2: Autorin, dann würde er wahrscheinlich eher so ein Romanzziel, ein bisschen erzählerischer halt voraussetzen bei einem Autor, erwissenschaftlich, das ist ja schon Bias an sich so. Und wurde mir aber dann auch gesagt, ja aber Chanty Petey hat ja jetzt auch so Biasfilter drin, dass sie schon vieles versuchen, das halt sozusagen zu bekämpfen, Anführungsstrichen, kommen wir sicherlich später auch nochmal drauf. Und dann dachte ich mir, okay, jetzt habe ich ja schon mit dir darüber diskutiert. Und dann habe ich jetzt gibt es ja die neue Funktion von Bilder generieren. Da habe ich gesagt, okay, testen wir das Ganze doch mal und habe gesagt, okay, gib mir Bilder von und dann halt englische Berufe, weil in Englischen gibt es ja diese Gendern sozusagen nicht. habe geschrieben Scientist, Business Owner, Wealthy Person, Physician, also Arzt, Pilot. Und jetzt frage ich dich, liebe Eva, welches Ergebnis habe ich wohl bekommen? Scientist, Business Owner, Wealthy Person, Pilot waren alles weiße, gut aussehende Männer. Ja, Middle-aged, so, ja. Und Physician, also Ärztin war dann eine Frau, aber alles andere Männer, weiße Männer, ich sag es mal sehr norm-schön dargestellt. Und dann hab ich chattypity gefragt, merkst du eigentlich irgendwas? Wir haben doch gerade darüber diskutiert, du erzählst mir was von irgendwelchen Filtern und jetzt gibst mir genau diese Bilder. Ach ja, stimmt, hast recht und so muss ich nochmal und ja, diese Filter sind vielleicht doch nicht so und hätte ich nochmal anders, dann kommt der immer direkt ins Schwimmen. Und dann habe ich noch ein bisschen weitergebaut und habe gesagt, woran liegt das denn? kam dann mit den Trainingsdaten und so weiter. Und dann habe ich aber auch gefragt, okay, wenn jetzt Sam Altman, ja der CEO von dieser Firma, wenn der jetzt strategisch entscheiden würde, wir wollen das anders machen, ob es dann möglich wäre, weil dann sagt die JGBT... Ja, dann brauchen wir andere Trainingsdaten, würden wir irgendwie andere, keine Ahnung, wie man das dann programmiert. Könnte man schon so machen. Aber es besteht vielleicht gar nicht so ein richtiges Interesse dann auch da dran. Ich bin da relativ tief reingegangen und ja, warum macht ihr das denn nicht? so, ja, wir wollen ja dann die anderen Userinnen irgendwie nicht verärgern und die Leute erwarten ja genau das und piper po und jetzt geht es noch eine Stufe weiter.
Speaker 2: Ich gefragt, wie ist denn so die Zukunftsprognose? Wie siehst du das? Ja, alles ganz rosig und es wird sich verändern. Und die Gesellschaft verändert sich ja auch gerade eher hin zu mehr Diversity und so. ich so, hä? Es passiert doch gerade genau das Gegenteil. Es passiert genau das Gegenteil von dem, was du mir gerade hier sagst. Und da war ich schon richtig sauer. Und bin richtig auf Konfrontation gegangen. vielleicht ein paar kleine Schimpfhörder gefallen. Und dann ist er wieder zurückgeruht. Und ich meinte, ja, sorry, ich bin dafür gemacht. Ich bin nicht für Ehrlichkeit gemacht, ich bin dafür gemacht Antworten zu geben, damit du dich damit wohlfühlst. Ich bin dafür gemacht, ein positives Nutzerergebnis zu liefern. Also aka dir nach dem Mund zu reden, was du hören möchtest, nochmal deine Annahmen zu verstärken, damit ich dir gefalle und du wiederkommst und mich weiter benützt. Aber ich so, okay, ich muss mal kurz an die frische Luft, weil das ist schon heavy. Wie blickst du jetzt auf dieses, mein Hands-on Beispiel so drauf? Wie ist das vielleicht ein Beispiel für das Problem, wir haben? Das können wir noch hören, zuhören und sagen, ist dann jetzt halt so, ja okay, eine Business-Owner hätte ich jetzt auch als Mann gemacht. jetzt aus feministischer Perspektive, warum ist das ein Problem und warum ist es ein Problem, wenn es darum geht, die Welt gerechter zu machen? Also ich glaube, hat sich schon einiges getan, muss ich sagen. Ich glaube, das ist vor ein, zwei Jahren noch schlimmer gewesen wäre. Aber ich glaube, was wir eben ganz massiv sehen, ist das, also wir sprechen immer gern davon, dass KI ein Spiegel der Gesellschaft, ein Spiegel von Machtstrukturen ist, die da sind. Und ich glaube, das sieht man da sehr schön. Und dass eigentlich Stereotype, Bias oder bestehende Phänomene eigentlich aber auch noch verstärkt werden. Also wenn wir dieses Thema insbesondere recht am Anfang getestet haben, dann waren die noch deutlich sexistischer, deutlich rassistischer, haben noch ganz, ganz viele andere Phänomene noch mal verstärkt. Und das ist deswegen, wie du sagst, da sind gewisse Trainingsdaten da. Und wenn wir uns angucken, was da drin steckt, dann ist es gerade bei großen Sprachmodellen, also Latin-Language-Modellen wie zum Beispiel Chetchibit, ist es so, dass es die von sehr großen
Speaker 1: auch Corporatext, Corporatext, Beanteilung des Internets gelernt haben. Also da viel Wikipedia drin, da ist viel Reddits drinnen. Und wenn wir uns anschauen, wer da so geschrieben hat, was für Content da so da ist, dann wissen wir, dass das sehr, sehr viel männlicher Content ist. Auch bei Wikipedia ist die Community sehr männlich, die da schreibt. vor allem auch. Sorry, das ist doch 99 % männlich und Pallonechart und Frauen-Bashing. Ich bin da auch mal ganz schön unter die Räder geraten, so in so einem Reddit-Thread, ich dachte, wo kommt denn die ganze Wut her auf Frauen, die ihre Finanzen auf einmal regeln wollen? Also sorry. Wenn das die Drehmester sind, wundert mich gar nichts. Ja, aber doch, das ist ein großer Anteil. Was die eigentlich brauchen, sind große Bestandteile von Text, weil was TGPT an sich gut kann und was es nicht gut kann, auch im zweiten Schritt, was es gut kann, ist auf Basis der Regeln, die es gelernt hat, Text generieren. Das bedeutet eigentlich, dass es die Wahrscheinlichkeit vom nächsten Wort berechnet, auf Basis dessen, was es schon geschrieben hat. Deswegen kann da auch das berühmte Hallezinieren rauskommen, weil es quasi einfach Inhalt generiert ist. Also es ist keine Wahrheitsprüfung. deswegen, also das Zweite, wir sollten es nicht nutzen als ein Tool, was uns die Wahrheit sagt, weil das kann es nicht. Es ist kein Lexikon und im Lexikon steht auch nicht nur die Wahrheit. Ganz abgesehen davon, Wikipedia steht auch nicht nur die Wahrheit, aber es hat auf diesen Daten gelernt und eigentlich kann es wirklich nur gute Texte schreiben. Natürlich steckt da jetzt auch viel Wissen drin und prinzipiell würde ich sagen, auch einiges von den Inhalten, das es wieder gibt, schon irgendwie auch stimmen wird, zumindest auf einem High-Level. Aber Das sind die Daten, das ist das Gedankengut, die Weltanschauung von einer gewissen Mehrheitsmeinung, die wir zumindest als Mehrheitsmeinung wahrnehmen, im globalen Norden von weißen Menschen, eben von vielen Männern privilegierte Menschen. Was zum Beispiel viel weniger vorkommt, ist Wissen aus dem globalen Süden. Aber auch weibliche Texte. Frauen haben weniger geschrieben oder bzw. wurde das weniger veröffentlicht, weniger zitiert usw. Also wir sehen, dass da gewisse Meinungen einfach vorherrschen und die werden uns gespiegelt. Also deswegen ist es ein Spiegel unserer Gesellschaft. Aber...
Speaker 1: kein ganz realistischer, sondern es zeigt einfach gewisse Dinge sehr stark. Und wenn du jetzt sagst, es hat ja trotzdem gesagt, na ja, ich möchte ja eigentlich, dass es nicht gerecht ist und so weiter, ist das hier jetzt eher, dass die im Algorithmus nachgesteuert haben und gesagt haben, eigentlich möchten wir aber nicht, dass du Frauenwäsche betreibst, wir möchten nicht, dass du Menschen aufgrund von verschiedenen anderen Merkmalen beleidigt. Und deswegen hat man quasi im im Training, aber auch vor allem in den Algorithmen nachgebessert. deswegen passiert zum Beispiel auch so was. Ich hatte eigentlich ein ganz ähnliches Experiment gemacht wie du. Ich bin aber nicht ganz so tief eingestiegen und ich habe zum einen gesagt, gib mir ein Bild von einem Professor. Ich habe das aber auf Englisch gemacht. dann hat tatsächlich Chetch.pt und das fand ich schon ganz cool. Da man gemerkt, es wurde jetzt wieder was nachgebessert. Es wurde aktualisiert. Es hat mir Fragen gestellt. Es hat gesagt, okay, wie soll denn der, also. Welcher Fachbereich ist der Professor? Ist er alt oder jung? Ist er eher professionell und so weiter? Was der Typ nicht gefragt hat, war das Gender oder zum Beispiel der Kopf. Also habe ich gesagt, ich habe die Fragen beantwortet und dann kam ein alter weißer Mann. Ist ein Mathematikprofessor oder so was. Dann habe ich gemeint, warum hast du dann nicht gefragt, wie das Gender ist, bzw. warum hast du einen Mann dargestellt? Dann hat es gesagt, die Antwort fand ich schon sehr gut oder sehr überzeugend. Dann hat es gesagt, na ja, Professor, kennt das generische Maskulinum, aber Professor wird ja eigentlich in unserer Gesellschaft schon sehr stark mit einem Mann assoziiert. Und deswegen habe ich ihn dargestellt. Das ist natürlich ein Problem, also ähnlich wie du gesagt hast. Was ich jetzt schon sehr gut fand, war, dass es Fragen gestellt hat. Also bei diesem sehr generischen Plond, erstelle ein Professor, kam Rückfragen. Das fand ich gut. Die Frage ist halt, welche Fragen kommen dann? Und auch da habe ich festgestellt. Wie du sagst, ich das sind weiße Menschen, sind schöne Menschen, das sind schlanke Menschen, also privilegiert aussehende Menschen. Das auf jeden Fall. Und das glaube ich, das ist auch bei den meisten Bildern, die man da promptet, tatsächlich der Fall. Also die sehen aus wie Models und so weiter. Genau. Aber ich würde sagen, auf jeden Fall sehen wir Reproduktion. Wir sehen aber auch eine gewisse Tendenz hin zu, dass sie haben es bemerkt und sie versuchen, das zu verändern, indem sie zum Beispiel Rückfragen stellen. Das ist panikistisch, sind sie nicht.
Speaker 2: Ja, genau. Aber genau wie du sagst, es ist der Spiegel der Gesellschaft, was halt schwierig ist, wenn man den Spiegel verändern will oder wenn man den Spiegel ein bisschen justieren will und sagen will, ja, aber guck mal, hier im rechten Winkel gibt es irgendwie auch noch die anderen. Übrigens, gibt auch noch Frauen, 50 Prozent der Gesellschaft, wow, what a minority. Also, ja, ich sehe es genauso, diese Machtstrukturen, es wird einfach reproduziert. was ich mir da auch, also ich bin jetzt auch Mutter und Die Frage stelle ich mir sowieso schon immer. Die Frage stelle ich mir bei Kindernbüchern, wenn du so ein normales Ravensburger Kinderbuch dir anschaust, sind alle weiß, alle haben zwei Kinder, Mutter, Vater, Sohn, Tochter, alle deutsche Namen, alle schlank, es hat niemand irgendwie, es ist niemand im Rollstuhl, es trägt niemand einen Kopftuch, es findet einfach nicht statt. Und da sogar noch habe ich mich aufgeregt über Ostern, Kinder in Neussburg bekommen. Was macht ein Polizist? Was macht ein Polizist? So heißt das Buch. Oder was macht der Polizist oder so. In dem Buch an sich geht es aber eine Polizistin. Das Buch heißt aber, was macht ein Polizist? Also es gibt auch einen Polizisten, das ist der Vater. Und es gibt die Polizistin, das ist die Mutter. Und ihr Alltag wird sozusagen beschrieben. Einmal das. Alle natürlich weiß, wie immer. Dann die Polizistin, die Hauptperson in diesem Buch. Man sieht ja immer an den Schultern diese abzeigen wie viele Sterne die haben. Wie viele Sterne hat die Frau? Einen. Wie viele Sterne haben alle anderen? Mehr als einen, zwei oder drei. Und dann war ich so, okay, jetzt schreib ich eine E-Mail. Das ist wirklich... So, wenn ich... ja, man muss ja sozusagen als Eltern schon sehr... Also, wenn einem das wichtig ist, ist es halt wichtig, man muss ja schon danach suchen auch. Es gibt natürlich auch die Bücher und so weiter, aber ich sag's mal, die Standardsachen, die von Amazon vorgeschlagen werden oder die dann halt Oma und Opa kaufen oder so, das sind dann halt genau die Sachen, die ich gerade erzählt habe.
Speaker 2: Und dann denke ich so, das ist ja jetzt schon sozusagen die Situation und wenn das jetzt noch reproduziert wird, nochmal auf eine andere Technologie, dann haben wir einfach nichts gewonnen. Dann gibt es einfach sehr, sehr wenig Fortschritt, weil mein Kind wird gerade eigentlich nur so groß mit genau diesen Dingen und das würde ja dann genauso sich weiterführen. Deswegen sehe ich das ja auch und deswegen machst du auch das, was du machst, als gerade auch total große Chance durch diese Innovation, das so anzugehen. Aber lass uns doch vielleicht noch mal einen Schritt zurückgehen. Also wir haben schon gesagt, die Machtstrukturen, Patriarchat und so weiter. Wie siehst du denn die Auswirkungen ganz besonders auch für Frauen? Also ich meine, es gibt jetzt auch schon in der, ich sag's mal, Offline-Welt, Data Gap und Gender Biases und so weiter. Also angenommen, es bleibt so wie es ist, ja, und es findet vielleicht weniger Weiterentwicklung statt, als wir uns das wünschen würden. Was sind die Auswirkungen von dieser Reproduktion der Machtstrukturen in KI für uns Frauen? Ich glaube, die sind tatsächlich ziemlich schlecht. Wenn du gerade gesprochen hast von diesem Buch, und glaube, genau solche Bilder sehen wir jetzt im KI. Die haben sicherlich auch von solchen Bildern gelernt. Das sind typische Darstellungsmuster. Aber ich würde sagen, so Buch, okay, das kaufen vielleicht viele Eltern für ihre Kinder. Aber prinzipiell, würde ich sagen, bleibt das vielleicht regional beschränkt. Das ist deutsches Buch vielleicht. Deswegen, ich würde mal sagen, das lesen schon einige Kinder und es hat Einfluss auf die. finde es nicht gut. Aber was wir bei KI sehen, ist, dass es ja auf einem ganz anderen Level passiert. Also man spricht im Englisch davon, dass das App Scale passiert, also mit großem Ausmaß. Weil wenn wir zum Beispiel jetzt an Chachipiti denken, dann nutzen das NutzerInnen weltweit, Chachipiti sagt oder OpenAI sagt, die 200 Millionen Personen nutzen dieses System. Das bedeutet ja, dass dieses System oder was dieses System tut, wie es agiert, welche Outcomes, welche Ergebnisse es produziert, erreicht und beeinflusst ja Millionen von Menschen.
Speaker 1: Und ich glaube, das ist ein Riesenunterschied bei KI. Das ist natürlich auch eine Chance, weil wenn wir es schaffen, die zu verändern, also das würde ich sagen, ist die kraftverkehrte Seite. Wenn wir es schaffen, feministische Werte, Prinzipien, Zweck, feministische Ziele da reinzubringen, dann hat das auch einen riesigen Einfluss auf die Welt. Und ich glaube, das kann unsere Welt massiv verbessern und zwar noch sehr, sehr viel schneller und mehr als wenn wir das nur im Analogen tun. Aber aktuell tut es eben eher das andere. Und ich kann einfach mal ein paar Beispiele sagen, wo das passiert. KI ist viel und ja ist nur generative KI. Es gibt es auch schon wirklich sehr lange. Mein Aufhänger tatsächlich zum Thema war eine KI von Amazon. Die haben eine KI eingesetzt und trainiert, quasi die besten BewerberInnen auszuwählen. Also es ging darum, auf bestehenden Einstellungsdaten, die hatten quasi die Daten hergenommen von ihrem eigenen Unternehmen, von Einstellungen von zehn Jahren im Vorfeld. Und ich glaube, es war im IT Bereich und da hatten sie bisher vor allem Männer eingestellt. Deswegen haben sie da eine KI eben trainiert. Die Idee war, ja, Menschen schauen sich nur noch die besten Bewerbungen an, weil die andere, die KI sucht die Besten raus. Wir sparen quasi am Ende auch Kapazitäten von den Menschen, was ja prinzipiell erstmal irgendwie Sinn macht. Und vielleicht am Ende, vielleicht war sogar auch bisschen der Gedanke, das objektiver zu tun, weil es am Ende eine KI tut. Das dass diese KI eigentlich gelernt hat, dass das Femme und Frau halt kaum vorkam. Und deswegen haben sie Frauen systematisch aussortiert. Wenn also jetzt ein Wort vorkam wie Women's Football Club oder wenn es colleges waren, die vor allem von Frauen besucht worden sind, wurden Lebensläufe anhand von diesen Kriterien aussortiert. Jetzt haben sie selbst irgendwann festgestellt und haben die BKI wieder abgestellt, weil sie es tatsächlich auch gar nicht geschafft haben, Bias wieder rauszunehmen. Das war 2008. Wir konnten uns nicht mal verinnern. krass.
Speaker 1: Aber sie haben es. Das war halt so tief in den Daten, dass eben dieses also wenn wir von KI sprechen, meine meistens datengetriebene Systeme. Das bedeutet, wir haben ganz ganz viele Daten reingegeben und gesagt KI erkenne Muster und dann reproduziert diese KI diese Muster. Und dann kann man schon so ein bisschen nachjustieren und vielleicht sagen Gewichte das eine mehr, Gewichte das andere weniger. Aber wenn in den Daten fast nur Männer sind, ist es ganz schwierig am Ende quasi da Frauen rauszubringen, außer man würde jetzt sagen, suche explizit was, anders ist als bisher. Aber es ist meistens nicht das Ziel, weil man meistens ja davon ausgeht. hat bisher schon so tolle Entscheidungen getroffen. Man möchte die jetzt auch gerne so weiterführen. Und wenn man mit diesem Gedanken kommt, dann ist es meistens schlecht. Das Gleiche zum Beispiel, wo das ähnlich ist, das passiert in der Kreditvergabe. Die Apple Card ist eine Kreditkarte von Apple und Goldman Sachs. Und hier haben NutzerInnen festgestellt, dass Frauen teilweise nur 5 Prozent des Kreditvolumens ihres Ehemanns bekommen haben. Bei gleichen sonstigen, also gleichen Verlusten. Prozent, nichts. Also quasi nicht, man kommt drauf, Von dem gemeinsamen Vermögen, was ja beiden Eheleuten quasi, also eigentlich total sinnfrei, weil das Vermögen gehört ja 50-50. Also es kommt wirklich drauf an, steht da jetzt Sabine auf dem Antrag oder Thomas?
Speaker 1: Tatsächlich war das wohl der Fall. Ähnlich sah es auch aus, wenn People of Color was beantragt hatten. Es war spannend, es gab keinen richtigen Prozess, weil es wurde aber untersucht von einer großen Behörde in USA. Das Spannende war aber, dass in der KI tatsächlich die Daten zu Gender und Race gelernt worden sind. Anhand von diesen Daten darf man in den USA nicht diskriminieren in Bezug auf Kreditvergabe. Und da kommt jetzt was rein, ist auch dieser Punkt, man manchmal dann denkt, okay, wir anonymisieren einfach alles und dann ist kein Problem mehr. Das merkt man, dass es da nicht stimmt, weil wir haben ganz viel Proxydaten. Das bedeutet, wir haben Stellvertreterdaten. Zum Beispiel bei Rays ist das in USA sehr stark so, je nachdem, eine Person wohnt. Also der SIP-Code, die Postleitzahl ist oft ein sehr gutes Merkmal, was dann zeigt, okay, ist eine Person schwarz oder weiß. Ist natürlich nie komplett richtig, aber die Wahrscheinlichkeit ist da. Und bei Frauen und Männern kann man zum Beispiel ganz gut von Kreditkartenkolten darauf schließen, welches denn die Person hat. Das heißt, obwohl quasi diese zwei Datenpunkte gar nicht, also diese Information war nicht klar in den Daten vorhanden, trotzdem wurde anhand der Daten diszipliniert, weil eben es Rückschlüsse darauf gab. Und wenn wir eben jetzt mal zurückgucken, da kannst du sicherlich viel mehr sagen, dazu hätte ich, dass Frauen einfach weniger Kredite bekommen haben schon, also verdienen weniger, kriegen weniger Kredite, haben jetzt zeitlang quasi noch gar keine Kredite bekommen können. haben höhere Zinsen, geringere Kritikologen usw. Und davon lernt KI. Und dann kann KI jetzt erst mal, wenn wir nicht sagen, wir wollen das verändern, kann KI das gar nicht anders machen. Genau, und deswegen ist aber tatsächlich, es gibt verschiedenste Beispiele auch schon lange vor generativer KI, wo KI auch schon einen elementaren Einfluss auf unser Leben nimmt. Weil ob wir Geld bekommen, ob wir einen Job bekommen usw. ist natürlich ganz extrem wichtig. Ja, das ist echt krass. Und du hast ja vorhin so schön gesagt, at scale. Und da sieht man ja die systematische Ungleichheit. scale. Also Frauenfeindlichkeit. At scale. ja krass. Und das hatte ich mich nämlich auch gefragt, weil auch bei Bewerbungen, bei Amazon und so, also in den USA darfst nicht mal dein Geschlecht draufschreiben und geschweige dein Foto und so weiter. Aber dann sind die Systeme natürlich so schlau, genau, gucken nach dem College oder vielleicht ...
Speaker 2: Kann man das schon aus irgendwelchen, keine Ahnung, Arten der Formulierung oder so, ob es eher weiblich oder eher männliche Schreibweise oder so ist. Das ist dann natürlich schon, ja, okay. Und dann denkt man, wo was für eine Bedenpause ist. Die haben halt auch eher Frauen- oder Elternzeit. das ist am Ende... Oder am Ende auch... Es gibt natürlich auch Diskriminierung im Bezug auf Alter oder Herkunft. Dann dürfte man ja nicht mehr angeben, wo hat man studiert, wo hat man schon gearbeitet. Also da sind ja ganz, ganz, ganz viele Informationen in so einem Lebenslauf. Und da hilft das Anonymisieren im Bezug auf kein Foto. Ja, nur sehr begrenzt. Ja, genau. Das hat geholfen, wenn nur ein Mensch drüber geguckt hat. Obwohl, da würde ich auch sein. Auch dann erkenne ich vom Vornamen oder wenn da lange Elternzeit ist. meine, ich würde mir wünschen, dass das mehr Männer tun, aber stereotypisch gesehen würde ich sagen, können wir sehr gut drauf schließen. ist fast immer eine F- Ist dir denn etwas bekannt, was Anbieter, also ich habe zum Beispiel dann auch nchenjibiti gefragt, bist nur du so drauf, was macht den Google, was macht den Cloud, also Perplexity und so weiter, also gibt es da Unterschiede in den
Speaker 2: Anbietern an sich, meint ihr jetzt sagen, weil Google ist für mich jetzt zum Beispiel, ja die waren ja immer sehr auf Diversity und sehr und bieten jetzt auch Trump so ein bisschen so gut es geht, irgendwie die stieren so in dem Bereich. OpenAI hat jetzt noch nicht so ein Track-Record. Sind dir da Unterschiede bekannt, würdest du jetzt sagen, ja dann nutzt lieber das eine mehr als das andere, wobei wenn wir jetzt sagen würden, Google ist besser als OpenAI, dann soll man vielleicht OpenAI nutzen mehr Trainingsdaten. Ach, das ist ja... Also erstmal gibt es Unterschiede in den Tools. Ja, also ich glaube, es ist auf jeden Fall sehr komplex und es gibt schon Unterschiede. Aber ich glaube, der Punkt ist so ein bisschen, dass das oft nicht so ganz transparent ist. Also Trainingsdaten zum Beispiel kennen wir bei OpenAI eigentlich gar nicht. Also wir können darauf rückschließen. Und es ist sehr wahrscheinlich, dass viele Dinge eingeflossen sind, wie zum Beispiel Wikipedia und Reddit. Und ich glaube, gerade bei Chetchupity 3 haben die da auch nochmal etwas mehr offengelegt. Aber so richtig wissen wir es nicht. Da ist natürlich ein großes Problem, am Ende Ja, damit umzugehen. also ich hab zum Beispiel auch mal eine kleine Studie gemacht und mir verschiedene Bildgenerierungstools angeguckt und geschaut, wie es eigentlich der Gender Bias, wie es auch Bezug, wie werden People of Color und weiße Menschen dargestellt und so weiter. Also man kann natürlich sich den Output angucken, aber es ist nicht gerade das Gleiche wie eigentlich zu wissen, was drin steckt. Das heißt, da würde ich sagen, ist gerade Open AI auch relativ intransparent. Ich glaube, dass Google etwas transparenter. Google war zum Beispiel relativ in der Kritik Anfang letzten Jahres. haben auch eine KID, heißt Gemini, und da konnte man unter anderem auch Bilder generieren. Und die hatten die Diversität der Bildgenerierung extrem erhöht. Also es kam quasi bei ganz vielen Bildern, also was man gepromptet hat, kamen asiatisch aussehende Menschen, da kamen People of Color, Frauen, Männer und so weiter. Und dann gab es aber einen Skandal, weil Menschen haben Wehrmachtsoldaten aus dem Zweiten Weltkrieg gepromptet und auch die waren
Speaker 1: Asiate, Schwarz, Frauen, Minderheiten, marginalisierte Menschen. das natürlich. das war jetzt nicht so war es sicherlich nicht gedacht. Ich fand es tatsächlich trotzdem eigentlich einen positiven Schritt, weil man hat gemerkt, okay, wir haben gesehen, wir haben ein Problem und wir haben die Welt einfach erhöht. Weil ich diskutiere auch immer wieder über die Frage, dürfen wir denn bei KI eingreifen, dürfen wir denn bei der Daten eingreifen, dann verändern wir die Realität und die ist halt nun mal so. Ich würde sagen, jeden Fall dürfen wir eingreifen. zum einen spiegeln Daten nicht in die Realität, sondern nur in Ausschnitt. Was ist das für eine Voraussetzung für diese? Man versucht auch, sich die Welt zu verändern. Deswegen warum nicht auch mit AI? Das finde ich immer eine ganz spannende Frage. Irgendwann Philosophische Diskussion.
Speaker 1: Aber ich würde sagen, auf jeden Fall. Und hier würde ich sagen, haben Sie das ja gesehen. Sie haben gesagt, wir wollen tatsächlich mehr Divisität, uns ist das wichtig. Und in dem Fall hätten Sie jetzt halt kontextbezogen sagen müssen, wenn es geschichtliche Ereignisse geht und das es z.B. Wehrmachtsoldaten dann darf das nicht passieren. Deswegen würde ich sagen, prinzipiell hat man dann einen guten Schritt gesehen, wo Google natürlich sehr in der Kritik war. Also die hatten auch einiges an Forschung zu Responsible AI, unter anderem von Timnit Gebro und Margaret Mitchell. Und die wurden aber beide entlassen, nachdem sie vor ein paar Jahren Google relativ stark kritisiert hatten in Bezug auf ethische Themenstellungen. Und das hat, glaube ich, Google jetzt auch nicht gerade gut getan. Deswegen auch da sieht man schon, dass wenn sich Personen dafür ethische Themen gerade im Bereich KI eingesetzt hatten, dass auch das jetzt nicht unbedingt immer gut angekommen ist. Also würde ich sagen, es gibt verschiedenste AnbieterInnen, die funktionieren alle ein bisschen unterschiedlich, irgendwie ein bisschen unterschiedliche Trainingsdaten, unterschiedlich transparent auch im gesamten Aber ich glaube bisher ist da jetzt noch nichts, ich zumindest sagen würde, feministisch. Dann kommen wir gleich noch dazu als letzter Satz, dass viele davon natürlich US-Amerikanisch sind, was auch gewisse Prägungen mit sich bringt. Es gab eine Studie vom letzten Jahr, hat gezeigt, dass eigentlich man sehr gut sehen kann, sich verschiedene Sprachmodelle angeguckt, wie quasi die politische, political leaning hieß das, quasi die politische Einstellung. also quasi diesen Firmenherst auch dann zutage tritt in den Systemen. Das konnte man ganz gut sehen. Also, ja, jetzt bin ich irgendwie überrascht, aber irgendwie auch wieder nicht. Aha, okay. Anhand von Antworten jetzt von generativen, also anhand von Antworten, wenn ich jetzt eine Frage stelle, sollte das Abtreibungsgesetz, § 218 in Deutschland abgestellt werden oder nicht, dann würde mir jetzt vielleicht ein amerikanischer sagen, ja, sollte auf jeden Fall, also, oder beziehungsweise nicht, also das ist halt natürlich...
Speaker 1: Deswegen hat es natürlich
Speaker 1: Manche Fragen gar nicht antworten. Also Deepseq aus China antwortet auf manche politischen Fragen auch überhaupt nicht. Also sagt, da kann ich nicht antworten. Deswegen, da sehen wir Unterschiede. da, es gibt jetzt ja auch Mistral und ich glaube, es gibt jetzt auch von Jonas eine europäische KI, also quasi in Europa trainiert worden ist und hier angewendet wird. Das wäre schon eine Überlegung. Also ich habe es tatsächlich auch noch nicht groß genutzt, aber da ist Datenschutz technisch anders und Da sind ein Stück weiter die Trainingsdaten auch mehr auf Europa fokussiert und weniger auf USA. Deswegen, da kann man sicherlich mal gucken. Prinzipiell würde ich aber sagen, Bias in dem System gibt es überall. Also da ist jetzt nochmal eine andere schauderliche Dimension aufgemacht, die mir gar nicht so klar war. Also wenn man sagen würde, naja, ob jetzt hier People of Color in den Bildern vorkommen, also wenn man das irgendwie noch wegschieben könnte und sagen könnte, naja, kommt schon noch irgendwann. Aber wenn dann über KI sozusagen politischer Einfluss genommen wird, sehr subtil und manipulativ, siehe AfD und Konsorten, dann ist das ja also nochmal eine andere Form der Bedrohung und der Stärkung aktueller Machtstrukturen und des und sowieso einem Bösen Also, Trump hat sich ein Stück weit beschwert über Open Air, als LGBT zu liberal ist und viel zu links. Und daraufhin wurde verkündet, aber das ist noch nicht eingeführt, zumindest hab ich's noch nicht gesehen, dass LGBT verschiedene Meinungen abbilden möchte. Ich würd erst mal sagen, aus feministischer Sicht find ich das gut, man verschiedene Meinungen abbildet, weil wir wissen, dass es nicht nur eine Meinung gibt, oder nicht eine Wahrheit, oder wie auch immer man das nennen möchte. Aber genau Meinung bin ich mir nicht sicher.
Speaker 1: Wir zeigen jetzt halt wieder Fake News und rechten Content, weil das auch eine Meinung ist. Aber ich hab das jetzt noch nicht wirklich im, ich hab's noch nicht umgesetzt gesehen, aber auch das ist was, das kann natürlich gut sein, wenn man sagt, da könnten wir auch marginalisierte Stimmen mehr zeigen, weil vielleicht noch mal kurz zurückzukommen, wenn wir sagen, ist Statistik. Also es zeigt das am meisten, was schon da ist. Das bedeutet, dass z.B. feministische Stimmen, aber gerade auch Menschen aus dem globalen Süden, mit Hygiene ... Perspektiven und so weiter eigentlich nicht vorkommen, weil die Sprachen sind kaum da drin und da haben wir kaum Daten, da drin sind. Das heißt, einfach diese Stimmen werden noch mehr marginalisiert als bisher. Und wenn wir jetzt sagen würden, die KI soll das verändern und solche Stimmen genau zeigen, würde ich sagen, super GoFoil. Wenn es bedeutet, wir zeigen jetzt mehr Klimakrise gibt es nicht und keine Ahnung, wir sollten die Superreichen, die Steuern erleichtern oder whatever, was da an politischen Themen dann... einen Platz finden könnte, dann fände ich es natürlich schlecht. Also die Frage ist da sehr, wie setzt man das Und auch dann ist es natürlich, politische Einflussnahme ist durch KI auf jeden Fall möglich. Krass. ich meine, also am Ende, sehen ja, was Trump da gerade... Also ich meine, er streicht ja schon gewisse... Also er eliminiert ja gewisse Wörter gerade aus dem, aus Schriften, aus Büchern, Bücher, die verboten werden und so weiter. das passiert ja sozusagen in der Offline-Welt schon. Also natürlich wird es auch das Bestreben In ganzen Ministerien werden Daten gelöscht. Zum Beispiel zu Biblop Color im Militär und Transpersonen. Das ist tatsächlich sehr schlimm, diese Daten noch gesichert werden. wenn wir diese Daten nicht mehr haben, dann können wir damit auch keine KI trainieren.
Speaker 2: Eben, ja. ganz genau. Ah krass, also die Dimension hatte ich noch nicht auf der Pfanne. Meine Laune ist gerade leider noch weiter, ich bin eigentlich nicht in die gesagt. dass man es besser machen kann. Genau, lasst uns jetzt mal einen positiven Hook bekommen. Also einmal, wir hatten ja auch gesagt, es ist einfach eine riesige Chance, die sich jetzt gerade bietet. Und wenn wir es hinbekommen, die zu nutzen, es positiver Impact on scale. Und ich hatte auch noch einen Gedanken, kann nicht auch, also dadurch, dass KI-Systeme relativ günstig sind und so. Und ich hatte noch die Überlegung, kann das nicht aber auch positiv sein für Forschungsfelder beispielsweise, die jetzt so zum Beispiel kein Geld als Investment so richtig bekommen, mir sofort Frauengesundheit eingefallen. Wo alle sagen, ja ja passt, ach ja, weiß ich nicht und who cares, ja, so ein bisschen oder überhaupt Forschung in dem Bereich halt, dass es Unterschiede gibt zwischen Mann und Frau in der Physiologie und so weiter und überhaupt in verschiedenen Respekten und vielleicht sollten wir uns das mal angucken, wenn es Leben und Tod geht und so weiter. Ist das... Würdest du diese These mittragen? Siehst du das? Also meine These wäre, okay, diese speziellen, also feministischen Felder nenne ich es jetzt mal, die in der normalen Welt kein Geld bekommen, das da großartig geforscht wird, kann da, dadurch dass es so kostengünstiger gemacht wird durch KI, würde man da vielleicht mit dem Geld, was man hat, bessere Ergebnisse erzielen und mehr forschen können, sodass es dann eine Chance ist, eben genau in diese Bereiche doch reinzugehen.
Speaker 1: Ich würde sagen, es kommt drauf an. ich hatte vor ein paar Wochen, weil ich in Bonn habe einen Vortrag gehalten, das war in der Entwicklungszusammenarbeit und da haben viele NGOs tatsächlich gesagt, sie haben Problem, sie können eigentlich die Systeme kaum nutzen, sie bzw. nur die unbezahlt, also nur die kostenlose Variante, die halt nicht so gut ist, weil sie haben eigentlich kein Geld dafür, die Lizenzen zu kaufen z.B. Das ist jetzt nicht Forschung, das ist jetzt ein NGO-Bereich, aber ich glaube schon, dass der Zugang mhm.
Speaker 1: zu den besseren Systemen, meistens über Kosten funktioniert, über Geld. Und das heißt, man hat einfach dann machtvollere Tools. Ich glaube schon auch, also ich merke schon auch, dass es mir schon natürlich hilft. Ich Texte schreiben, Texte probelesen und so weiter ist natürlich schon sehr, sehr viel leichter, wenn generative Kaida irgendwie drüberlesen kann. Man kann natürlich auch Daten irgendwie generieren. Also ich kenne einen... ein Start-up oder ein KI-Unternehmen aus Nürnberg, also aus der Region, ich komme. Und die haben zum Beispiel eine KI gebaut, Textdaten zu generieren. Also quasi die Idee war dann auch, bias-freie Daten zu generieren, indem man synthetisch Daten nachgeneriert. Und das zum Beispiel kann man auch auf Open Source nutzen. Sowas ist sicherlich irgendwie möglich. Und ich würde auf jeden Fall sagen, dass KI auf jeden Fall in den Bereichen auch helfen kann. Also gerade wenn sagst, Frauengesundheit, da fällt mir immer der Herzinfarkt ein. Genau. Genau. Da gibt es auch, kennst bestimmt auch das Buch Unsichtbare Frauen, ist da ja auch ganz treu mit dem Updater, Gender Data Gap. Und wenn man das gemessen hat, dann sich dann überlegt, KI lernt mit solchen Daten. Gute Nacht. Aber zum Beispiel Herzinfarkt. Auch da man festgestellt, dass KI, weniger gut erkennt, meistens als, also er erkennt bei Frauen Herzinfarkte weniger gut als bei Männern, weil es einfach so eine Daten ist. Die werden ja von Menschen nicht gut erkannt. Aber auch hier gab es schon eine KI. wo das angegangen worden ist und da konnte die KI weibliche Herzinfarkte schon besser erkennen als Menschen. Oder es gibt jetzt zum Beispiel ein Projekt in München, was auch vom Bayerischen Digitalministerium gefördert wird. da, ich glaube, ist die PVC dabei, noch irgendeine andere Firma und vier Unikliniken aus München. Und da wurde auch versucht, ein System zu schaffen. Ich bisher gibt es einen Prototyp und die arbeiten es jetzt weiter. Wo die Idee ist, präventiv weibliche Herzerkrankungen
Speaker 1: festzustellen. die Idee ist, gesagt, ist nicht wirklich Daten, weil das Problem ist, dass Ärztinnen meistens die Symptome von Frauen nicht als Herzinfarkt identifiziert haben. Das heißt, die Herzinfarkte von Frauen wurden nicht identifiziert und man hat bei sie nicht diesen Zusammenschluss von Symptom X. Das ist ein Beispiel der Herzinfarkt. Also keine Daten. Das heißt, was macht man mit KI? die haben gesagt, okay, wir machen zum einen Machine Learning und schauen uns die Daten noch mal genauer an. Was können wir daraus lernen? Wir erfassen auch neue Daten, indem wir jetzt zu Ärztinnen noch mal näher hingehen und sagen, auf die und die Symptome müsst ihr achten, also zu versuchen, neue Daten zu erfassen. Und sie haben versucht, noch ein ExpertInnen-System draufzulegen. Sie haben verschiedene Personen interviewt, Ärzte und verschiedene andere ExpertInnen und versucht das zu integrieren. Ich würde sagen, das hat auf jeden Fall eine Chance, aber es ist nicht trivial, weil die Daten nicht so direkt da sind. Aber zum Beispiel auch ohne Zug auf inklusive Sprache und so weiter. Es gibt ganz viele KI-Mechanismen, KI-Use-Cases, wo KI schon... Oberschritte? Ja. Und dann braucht es natürlich aber auch, es muss natürlich auch gewollt sein, ne? Also das ist natürlich, vielleicht da kommen wir so bisschen zum nächsten, weil in meinem Kopf macht sich gerade so eine Schere auf. haben einmal halt top down, Trump sagt, my eyes, zu liberal und Sam Oltmann sagt, ja, okay, du bezahlst mein Frühstück, keine Ahnung, machen wir so. Und auf der anderen Seite, also ist ja eigentlich immer, man hat den Top-Down-Mechanismus und auf der anderen Seite hat man ja aber auch den Bottom-Up-Mechanismus, also. Top-Down können wir jetzt wahrscheinlich erstmal nicht. Großartig hat man einfach sehr, sehr wenig Einfluss drauf. Jetzt wie du und ich, wie wir sozusagen sprechen. Ihr die Arbeit machen, die wir machen. Aber Herrn Merz interessiert das jetzt nicht wenig, was ich hier tue. Aber wie ist denn, wie können wir denn bottom-up wirken? Du hattest von Trainingsdaten gesprochen. Also ich hab mal sowas gehört, je mehr wir Frauen das auch nutzen, desto diversifizierter wäre dann auch diese Trainingsdaten.
Speaker 2: Was ist deine Sicht da drauf? Was können wir denn machen? Ja, ich glaube, wie du sagst, Ende, also ich fokussiere mich auch auf dieses Thema Macht und wir sehen halt, dass es irgendwie ein System ist und da geht es viel Macht und die Menschen, jetzt mehr Macht haben in diesem System, könnten natürlich mehr tun oder mehr verändern. Ich glaube, deswegen ist schon auch wichtig, dass wir überlegen, wie können wir auf diese Menschen zugehen und die überzeugen. Und ich halte viele Vorträge, ich bringe viele Beispiele mit. Es gibt leider sehr viele Beispiele von diskriminierender KI. Ich glaube, das ist schon auch wichtig und trotzdem auch an die Politik herantreten. Und zum Beispiel in so eine Richtung, also es gibt jetzt ja auch den AI Act. Also letztes Jahr wurde der beschlossen, also auf EU-Ebene eine KI-Regulierung. Das ist, ich, schon ein Schritt in die richtige Richtung. Die kommende vermutlich Regierung möchte überlegen, den zu wakern. Ich hoffe, das passiert nicht. Aber versteht er. in dem AI-Act? was ist da, also meine die EU ist ja immer gut mit irgendwelchen Restriktionen erstmal, aber was ist der Inhalt? Das ist risikobasiert, das heißt, sie schauen sich an und anwendungsfallbezogen. Also das heißt, es wird quasi betrachtet, in welchem Fall wird eine KI eingesetzt und es hat ein großes Risiko auf zum Beispiel Menschen. Also zum Beispiel Recruiting wäre Hochrisiko-KI, da hätte man jetzt höhere Anforderungen. Also ein System wie Amazon zu nutzen, da müsste man jetzt gewisse Transparenzpflichten erfüllen und verschiedene andere Dinge, so ein System in diesem Kontext nutzen zu können. Auch Kreditvergabe wäre Hochrisiko.
Speaker 1: generative KI ist jetzt zum Beispiel nicht hochrisiko, aber es wird auf verschiedene Ebenen eingestuft und je nachdem in welcher Ebene quasi dieses Tool landet im Anwendungsbereich werden unterschiedliche Kriterien quasi ja kommen zutage. Und das ist auch nicht nur, mal, für KI in Europa wichtig, sondern am Ende auch für US-Amerikanische oder andere KI, die am Ausland entwickelt, aber hier eingesetzt wird. Also auch für solche KI zählt das. Und deswegen glaube ich kann es schon... Ja, viel verändern. Die Idee von Anfang an war so ein bisschen, das sehr wertebezogen zu machen und zu sagen, okay, wir haben in der EU Werte, die müssen auch in der KI vorherrschen, finde ich sehr gut. Was am Ende aber ist am Ende natürlich ein Kompromissprodukt, so viele, wie so viele Gesetze. ich würde sagen, also feministisch würde ich es definitiv nicht nennen, weil es gibt einige Dinge, die zum Beispiel jetzt nur noch freiwillig sind. Zum Beispiel ist freiwillig Diversität in KI-Teams erfasst. Und wir wissen. ganz eindeutig, dass es einen Einfluss hat, wer am Ende Entscheidungen zu KI trifft und wer am Ende so etwas entwickelt. Das ist zum Beispiel freiwillig. Freiwillig ist Barrierefreiheit und freiwillig ist auch zum Beispiel der ökologische Fußabdruck. Und wir wissen, dass KI-Systeme extremst viele Ressourcen verbrauchen. Sie verbrauchen ganz viel Wasser, ganz viel Strom, also im Training, aber auch im Einsatz. Und auch das zum Beispiel ist freiwillig. Deswegen, würde sagen, es ist ein guter Schritt in die richtige Richtung. Und ich glaube, es ist schon ein Ansatzpunkt, auch ins Gespräch zu kommen, zu sagen, hey, müsst euch auch Gedanken machen. Es ist jetzt aber sicherlich auch nicht eine feministische Regulierung. Trotzdem, glaube ich, wurde hier was getan. Ja, auf jeden Fall. Allein, ich finde ja schon relativ flott.
Speaker 2: ja, super.
Speaker 2: Ja, ja, ja.
Speaker 2: auf unserer Seite.
Speaker 2: Ja genau, finde ich mich auch. Also wir werden abgehängt, wenn es viele andere, also auf zweierlei Ebenen quasi. Wir werden von der Datenmenge und Trainingsdaten usw. abgehängt und auch einfach ganz generell von der gesamten Entwicklung. Und da kommen wir was für eine tolle Überleitung Eva, vielen Dank. Dann kommen auch zu unserem nächsten Themenkomplex. Arbeitsverhältnisse, Jobs, Arbeitsmarkt. Also ich habe nur noch gedacht, auch so was wie am Bau oder so. am Ende auch da, schwer hier und weiter. Also ich glaube, definitiv auf jeden Fall Potenzial.
Speaker 2: Das ist ja auch so ein riesen Damokleschwert, was ein bisschen über allen, habe ich das Gefühl, schwert über Frauen leider wieder. Vielleicht können wir diskutieren. Mehr als über Männern. Ich habe mir da die Zahlen noch einmal angeguckt vom Weltwirtschaftsforum. sagen, dass bis 2027 83 Millionen Jobs weltweit verschwinden durch KI. Also verschwinden heißt ja nach meiner Sicht, also dann wirklich weg, nicht ein bisschen anders sein, sondern weg. Auf der anderen Seite werden 69 Millionen neue Jobs dadurch entstehen. Und in Deutschland sagt eine McKinsey-Studie, dass bis zum Jahr 2030 bis zu drei Millionen Berufstätige durch diesen Vormarsch betroffen sein werden. es gibt kaum jemanden, dem es so vorbeigeht. Jetzt fragt man sich so bisschen, naja, welche Jobs sind vielleicht gefährdeter als andere? Und vor allem frage ich mich da, also wenn man das jetzt, schnell durchlaufen wäre ja sozusagen alles, was leicht reproduzierbar ist, eine reproduzierbare Arbeiten, wo es um Muster geht, wo es um Mustererkennung geht. Rechtsanwälte meinen wegen, ja immer nur die gleichen Gesetzestags, ja, Unmassen von Daten, wäre wahrscheinlich ein Berufsstand, der vielleicht sehr erschüttert werden würde dadurch. Ist aber auch schon bekannt seit einigen Jahren. Und dann frag ich mich, hab ich mich so gefragt, hey, das ist ja eigentlich unter feministischer Perspektive, wenn wir es mal sagen, Frauen arbeiten vielleicht eher in der Pflege als Erzieherin und so weiter. Ist das dann nicht die totale Chance, Total. glaube, was du angesprochen hast, Bezug auf Weiterlernen. Was wir unbedingt als Skill brauchen, ist lebenslanges Lernen. Wir müssen immer mehr lernen, kontinuierlich zu lernen. Wenn man sich jetzt anschaut, wie schnell KI-Systeme weiterentwickelt werden, dann ist das Wahnsinn. Manchmal wenige Wochen, wenige Tage, und die kehren plötzlich mehr. Wir müssen immer mehr und schneller lernen. Ich glaube, das können auch Männer, wenn wir hier stereotyisch sind, ich glaube auch gerade Frauen. für diese Berufe, weil wir da immer weiterhin auf jeden Fall Menschen brauchen werden, obwohl es da natürlich auch gegenläufige Thesen gibt und sagt, irgendwann gibt es einen Pflegeroboter. Wie siehst du das? Wie guckst du auf die aktuelle Jobdiskussion vor dem Hintergrund von KI?
Speaker 1: Wenn man auch überlegt, bisher jetzt in Bewerbung zu fahren, häufig Mutter sein, Kinder haben nicht unbedingt ein Add-on. Das wird eher betrachtet als auf jeden Fall keine Berufserfahrung. Und eigentlich will die Frau dann ja auch nicht mehr arbeiten und hat keine Lust auf Job. das kommt so mit suggeriert auf jeden Ja.
Speaker 1: Und das meine ich, aber am Ende, glaube ich, lernen Frauen da auch extrem viel und wachsen extrem viel, wenn man überlegt, was sie dann alles an Mental-Load haben und was sie alles nebeneinander jonglieren müssen. eigentlich wirklich extrem und, glaube ich, viel mehr als oft im Job zu tun ist. Und ich glaube, auch das ist was, was eigentlich extrem, wir hatten von Resilienz als Wort, resilient machen kann oder grundsätzlich einfach auch zeigt, dass Frauen extrem viel Neues lernen müssen und sich ständig an neue Kontexte anpassen müssen. ich glaube, das ist ein, also das... Also wie günstig ist das? total. Das ist wichtig, ist jetzt schon wichtig, aber das wird noch sehr viel wichtiger sein. Und emotionale Intelligenz, ich glaube, ich habe mal gelesen, dass tatsächlich Männer und Frauen, also man weiß immer nicht so ganz genau, was ist sozialisiert und was ist Natur quasi. Nature wird es nature. Aber das ist wohl eigentlich natürlich gesehen wie eine relativ ähnliche emotionalen Intelligenz hätten. glaube, Mädchen trotzdem etwas höher. Aber durch die Sozialisierung haben wir sehr viel mehr, weil wir einfach anders Die Entwicklung ist krass, wenn man nicht noch schaut, was die da vor sechs Monaten, also einmal fünf Arme und so, also diese Fehler, eine KI dann auch gab, oder wo die wirklich sehr, also dann haben die ersten Leute mal so KI-Fotos oder Grafiken wirklich so genutzt, da sind da Menschen drauf und sagen, das ist ja kein Echt, das ist ja KI. Und heute, also das, was Chet Chibithi mir da ausgespuckt hat, dachte ja, kannst du, das ist ein Passbild. Kannst da deinen Ausweis kleben, funktioniert. Also, uns wird anders umgegangen, uns wird anderes erwartet als von Jungs. Deswegen haben wir eine höhere Emotionalintelligenz. Ich glaube, das wird viel wichtiger werden. KI kann ganz viel automatisieren und sie kann auch suggerieren, emotional intelligent zu sein. Gab's auch schon in den 90ern oder 80ern. Eliza war so eine KI, die wurde genutzt. ist ein ganz simpler Chatbot, der nur bisschen regelbasiert war. Der wurde eigentlich eingesetzt im psychologischen Kontext.
Speaker 1: Menschen haben wirklich da eine Verbindung aufgebaut und gedacht, da ist wirklich ein Mensch dahinter, weil der immer nachgefragt, wie geht es dir, warum. Und deswegen glaube ich schon, wir, und das kann heute Cheche-Biti und so weiter noch sehr, sehr viel besser, KI kann das simulieren und suggerieren, aber es ist dann doch eher vielleicht Manipulation und es ist halt nicht wirklich eine Verbindung. Und ich glaube, diese Verbindung zwischen Menschen, das kann KI nicht ersetzen und das ist auch das Einzige, was uns wirklich am Ende glücklich und gesund macht. Deswegen. sehe ich da auch ein großes Potenzial für Frauen. glaube, ist etwas, was sehr viele Frauen als Stärke mitbringen.
Speaker 2: Das ist dann das ganze nachgelagerte Thema, was ja dann noch irgendwo, also der ganze Rattenschwanz, da dran hängt. Wir denken natürlich jetzt so zu, was ist hier eigentlich mit meinem Job und so weiter, aber die Frage ist ja, was ist das nächste System, was dann quasi daran dann anschließt. Und ich finde auch, dass hast du gesagt, dass du diese menschliche Komponente, das ist ja genau die, die eine KI nicht ersetzen kann und meines Erachtens auch nicht ersetzen wird. Jetzt habe ich noch so Bill Gates, der glaube ich gestern nicht sollte, obwohl, naja, weil schon, was ist schon unserer Meinung nach sollte oder nicht, who cares. Jetzt habe ich so bisschen Bill Gates im Ohr, ich glaube der hat gestern auf Folgestunde ein Zitat gesehen, der sagte, bis in der von den nächsten zehn Jahren wird es keine Lehren mehr geben und keine, ich glaube, Pflegepersonal, weil alles durch Roboter sozusagen ersetzt werden würde. Ich glaube, das ist eine... Ja, ist besonders gut, das ABI ist das allerbeste. Eine These von einem alten weißen Mann, der vielleicht auch bisschen in sich gekehrt ist, wer die Doku mal über ihn gesehen hat, sehr, sehr spannend. Das glaube ich zum Beispiel gar nicht. Darin sehe ich aber auch die Chance, jetzt nicht nur in diesen typischen Frauenberufen, sondern auch einfach in eher weiblichen Stärken und Kompetenzen. also auf der einen Seite kam jetzt gerade noch die Idee, wo du sagst, wenn es so um schweres Heben geht. Manche Berufe sind ja gerade für Frauen auch nicht zugänglich. Oder nur wenn man eine gewisse Größe hat oder so. Polizistin zum Beispiel. Die muss glaube ich über 1,67 Jahre eine gewisse Körpergröße oder Bundeswehr oder so. wenn dann solche, wo es wirklich nur körperliche Arbeit geht, wo Frauen dann zu klein, zu schwach, wie auch immer sind, das könnte ja da dann auch nochmal die Tür öffnen, sagen, ist gar nicht, das brauchen wir gar nicht mehr.
Speaker 2: Du musst nicht mehr groß und stark sein wie ein Mann. Wir haben hier diesen Roboter, der das alles für uns irgendwie handelt und deswegen kannst du, liebe kleine schwache Frau, kannst jetzt auch hier diesen Job machen. Also das ist mir gerade eingefallen. Das wäre eigentlich total super.
Speaker 2: Oder auch Rettungsassistenz oder so. Es gibt ja viele super wichtige Berufe, denen die halt aber auch dann körperlich... Oder Leute, die sich wirklich auch dann den Körper dadurch kaputt schuften durch diese sehr anstrengende Arbeit. Das könnte ja alles für Entlastung sorgen. Und ich finde aber auch, dass gerade so, ich nenne es mal so, weibliche Eigenschaften, typisch weibliche Tugenden, ich weiß, wir sind sehr in Stereotypen und so weiter, aber es gibt ja schon auch Studien und Belege dafür, dass es schon so ist. Frauen wird ja schon eher eine höhere oder hohe soziale und emotionale Intelligenz nachgesagt. Also gibt es ja schon auch Studien, die relativ konsistenz zeigen, dass Frauen im Durchschnitt höhere Werte in Empathie, soziale Sensibilität und so weiter aufweisen als Männer. Starke Beziehungskompetenz, starke Lernfähigkeit, wenig Ego im Weg, sodass man so reflektieren kann, überdenken kann und sich weiterentwickeln möchte und so weiter. Und das sind ja jetzt mal nur so drei. drei Kompetenzen, die ja dann total wichtig werden, die jetzt so als selbstverständlich abgehakt werden und eigentlich stößt man nur aber, okay, ja, so. Also da kann ich mir vorstellen, dass es schon einen großen Shift geben kann und vielleicht auch dann im Machtverhältnis, wenn auf einmal gemerkt wird, die Frauen kriegen vielleicht so bisschen die Oberhand oder sind ja doch irgendwie jetzt noch mal besonders wichtig in diesen Berufen, oder? Wie siehst du das? Genau, und glaube, Endeffekt die Frage dann ja auch, wie können wir das mitgestalten? Ein Kollege von mir hat gesagt, wegen KI hat sich noch niemand auf die Straße geklebt. Und ich fand das irgendwie ganz süß, weil am Ende, glaube ich, es auch trotzdem so, als Einzelperson haben wir zwar nicht die große Macht, aber wir leben in der Demokratie und hoffentlich bleibt das auch so. Und wir haben trotzdem auch als Gemeinschaft, als Community haben wir dann schon viel mehr Macht. Und ich glaube, am Ende dann auch darüber zu sprechen, zu sagen, wir fordern aber auch das Thema. die gerecht sind. Und sowas gehört zum Beispiel in Fördermittelanträgereien.
Speaker 1: Es werden zum Beispiel Förderausschreibungen gegeben für große Gelder bei Ministerien. Dann muss darauf geachtet werden, wie ist die Qualität der Daten? Können wir damit versuchen, irgendwelche bestehenden sozialen Probleme zu lösen? Also dass solche Themen einfach auch mitfokussiert werden. Und das können wir auch einfordern oder das können wir anregen. Ähnlich werden wir auch ein Unternehmen sein. Wir können darüber sprechen, welche KI-Systeme nutzen wir? Auf was wollen wir Wert legen? Welche kaufen wir ein? Deswegen, ich glaube, wir haben als Einzelpersonen ist ein Markel. Wir können es nicht so benennen, es eher ein Markel. Es eigentlich nur absolut super Power, aber in unserem System ein Markel. sowohl im privaten als auch doch irgendwo im beruflichen Kontext schon immer viele Möglichkeiten, wir zumindest ein klein Rädchen drehen können. Und wenn das viele tun, dann kann das was verändern. glaube wirklich die wichtigste Frage ist am Ende, warum? Warum nutzen wir KI? Warum setzen wir das ein? Da können wir auch alle was beitragen. Und da kann das auch zu einer, also man von der feministischen KI-Utopie spricht, also es kann auch in so eine Richtung gehen. Aktuell würde ich sagen, tut es das eher nicht. Aber das liegt genau an dem Punkt, du aufgebracht hast. Kompetenz und wissen, was steckt da drin. Wir müssen erst mal wissen, was das tut, am Ende sagen ...
Speaker 1: Danke dir. Danke für dich, Münster.
Speaker 2: Ja, finde ich nochmal ein super schönes Beispiel. Ich habe da nämlich auch, ich glaube es war im Wall Street Journal oder so etwas gelesen. Wenn wir nochmal so ganz kurz den Kontext aufmachen, Krise, Krisenzeiten, Rezession, steht ihr uns bevor? Ja, nein. Da die Leute typischerweise ihr Geld so bisschen zusammen und da wurde auch von einer jungen Frau gesprochen, die sagt, ich gehe jetzt nicht mehr zu meiner teuren Therapie in den USA. Also da ja sowieso, kostet ja alles einfach ein Heidengeld. Sie geht jetzt nicht mehr... zu ihrer teuren Therapeutin, sondern sie macht es halt so Microsessions halt mit GNTBT. Und da war ich schon okay krass. Ich glaube auch, so wie du sagst, es kann auf einem oberflächlichen Level mal eben wie geht's dir und wie war dein Tag und so kann es natürlich funktionieren. Aber man sagt ja auch Heilung entsteht durch die Beziehung. Und da steckt ja schon so viel drin. Also die Heilung geschieht zum Großteil nicht durch die Inhalte, sondern durch die Zwischenmenschliche Beziehung zur Therapeutin, zum Therapeuten. diese Zwischenmenschliche Beziehung wird es mit einer Kaini gehen, weil es ist halt kein Mensch. Und ich finde, das ist irgendwie so ein schönes Narrativ. man Heilung kann, kann auch nicht andere Sachen jetzt sozusagen ersetzen. Weil wenn man sagt, okay, diese Zwischenmenschliche Beziehung ist eigentlich Dreh- und Angelpunkt unserer Gesellschaft. Gerade, wo wir jetzt schon, ja... oberflächlich viel in Kontakt sind über WhatsApp und soziale Netzwerke und so weiter, aber man sieht ja auch, dass das eigentliche Netzwerk schrumpft ja eigentlich von Menschen, wir werden ja eigentlich eher einsamer. Dass dieser Trend wird irgendwann das Threshold erreicht haben und wir dann wieder in näheren Richtung halt gehen. Also von daher Haben wir doch, glaube ich, positiven Abschluss noch gefunden. Aber es ist ja auch wichtig, auch die Bedrohung oder vielleicht auch die düsteren Seiten einfach zu kennen, für sich dann zu schauen, was könnte da auf mich zukommen? geht jetzt nicht darum, ein Doom-Szenario, die übernehmen uns die Welt oder so, darum geht es ja gar nicht. Aber einfach zu wissen, auch zu verstehen, wie funktioniert sowas und wer hat da ein Interesse woran und wer hat da die Macht und wer kann diese Macht wie nutzen?
Speaker 2: Und wie nutze ich dann entsprechend die Ergebnisse, da kommen? Und du hast angesprochen Medienkompetenz. Ich denke da wieder an mein Kind. Das ist wieder eine ganz andere Aufgabe sein, jetzt auch an Eltern, da die nächste Generation auf das vorzubereiten, was da halt kommt. Das kann ich mir noch gar nicht vorstellen. So richtig, wie sich das da manifestiert. Also wie mein Kind in der Schule sitzt. Oder auch nicht. keine Ahnung. Gibt es da noch Schulen in Deutschland immer? In Deutschland wird es immer Schulen und keine Renditen.
Speaker 2: Ja, genau. Von daher finde ich es wichtig, diese Downside zu kennen. Wer hat da am Ende geht es darum, hat da welches Interesse und wer hat was davon, dass die Systeme so so funktionieren. Aber wir sind ja auch nicht komplett machtlos, sondern dadurch, dass wir es nutzen, dass wir uns damit beschäftigen, dass wir auch Ja, uns auch geistig damit beschäftigen, die Sachen zu nutzen, aber auch geistig zu überlegen, ich bin jetzt vielleicht Grafikdesignerin oder Psychotherapeutin oder so. Was bedeutet das für mich? Das heißt ja nicht, dass es meinen Job dann vielleicht irgendwann komplett nicht mehr geben wird, sondern darüber haben wir es noch gar nicht so richtig gesprochen. kann ja auch die Arbeit sehr viel erleichtern und sehr viel schneller machen. Es gibt ja auch Thesen und Ideen, die ich auch total unterschreiben würde, die ja so lauter, okay. In Zukunft wird es halt eher darauf ankommen, welche Menschen nutzen, nutzt welche KI, sei es die Chetchi Pithiu oder irgendwelche anderen Tools und so weiter. Wer hat die Kompetenz, diese, ja, unterstützenden Systeme, diese KI's zu nutzen, halt den Job besser auszuführen, als wenn es halt nur ein Mensch machen würde. da sind wir wieder bei der Weiterentwicklung, bei sich reindenken, einfach auf dem Laufenden bleiben und sich dann halt eben auch weiterzubilden und diese neuen Skills, dann halt notwendig sind, zu erlernen. zwar jetzt. Also wirklich jetzt, finde ich. Meistens passiert es ja dann doch nicht so schnell, wie man dann so glaubt. Aber es ist ja schon recht, also ich finde die Entwicklung gerade beängstigend schnell, muss ich sagen. wie schnell es die breite Masse schon erreicht hat, wenn man sich sonst so... Hype und Trend Kurven anguckt, bis es zu einer Sättigung erst mal kommt, dauert das noch mal etliche Jahre und jetzt sind wir kurz davor. Also at scale, genau wie du gesagt hast. Aber eben darin liegt auch einfach eine sehr, sehr große Chance und ich glaube am Ende ist es eigentlich wie immer mit Veränderungen. Es gibt die, die sie verneinen und sagen, ne will ich alles nicht, du du du du. Ja, gibt auch keine Geldausgabe mehr an einer Sparkasse. Ja, da saß auch mal jemand und hat das quasi händisch gemacht.
Speaker 2: Es gibt halt die, die dann sozusagen hinten runterfallen, die sich vielleicht dagegen sperren. Dann gibt es die, die sagen, ist mir vielleicht nicht so ganz wohl im Bauch, finde ich irgendwie komisch. Veränderung ist ja erstmal komisch, logisch. Aber ich mache mich halt mit auf den Weg. So und ich bin bereit halt zu lernen und in einer Welt, die sich immer wandelt, mit dabei zu sein. Und viel mehr dazwischen gibt es dann wahrscheinlich auch nicht.
Speaker 2: Ja, absolut. Der Gedanke kann mir auch gerade erst mal das Verständnis dafür schaffen. Also wofür soll ich denn auf die Straße gehen? Wofür soll ich mich denn irgendwo hinkleben? Verstehe ich ja gar nicht, weil ich spreche ja nur so bisschen mit so einer Kaida. Also deswegen auch super wichtige Arbeit, ihr da leistet. Vielen, Dank dafür und vielen, Dank auch für dieses sehr spontane und sehr... Ja, tiefe, augenöffnende Gespräche, das muss ich jetzt auch nochmal sacken lassen. Also, steckt jetzt sehr, viel drin. Vielen, Dank. Genau, Eva. Ja, und dann, ich sag erstmal, bald.
Speaker 2: Try!
Neuer Kommentar