Frauen in KI: Kristine Gloria ermutigt Frauen, in das Feld einzutreten und 'ihrer Neugier zu folgen'

Um KI-fokussierten Frauenakademikerinnen und anderen die ihnen gebührende - und überfällige - Aufmerksamkeit zu verschaffen, startet TechCrunch eine Serie von Interviews, die sich auf bemerkenswerte Frauen konzentrieren, die zur KI-Revolution beigetragen haben. Wir werden im Laufe des Jahres mehrere Artikel veröffentlichen, während der KI-Boom weitergeht, und dabei Schlüsselarbeiten hervorheben, die oft nicht anerkannt werden. Lesen Sie hier weitere Profile.

Kristine Gloria leitete früher die Aspen Institute's Emergent and Intelligent Technologies Initiative - das Aspen Institute ist das in Washington, D.C. ansässige Think Tank, das sich auf werteorientierte Führung und Politikkompetenz konzentriert. Gloria besitzt einen Doktortitel in Kognitionswissenschaften und einen Master-Abschluss in Medienwissenschaften, und ihre bisherige Arbeit umfasst Forschungstätigkeiten am Internet Policy Research Initiative des MIT, dem in San Francisco ansässigen Startup Policy Lab und dem Center for Society, Technology and Policy an der UC Berkeley.

Frage & Antwort

Wie sind Sie ursprünglich in die KI eingestiegen? Was hat Sie an dem Bereich fasziniert?

Ganz ehrlich, ich habe meine Karriere definitiv nicht mit dem Ziel begonnen, in der KI tätig zu sein. Zunächst war ich sehr daran interessiert, das Zusammenspiel von Technologie und öffentlicher Politik zu verstehen. Zu dieser Zeit habe ich an meinem Master in Medienwissenschaften gearbeitet und Ideen rund um Remix-Kultur und geistiges Eigentum erforscht. Ich lebte und arbeitete in Washington, D.C. als Archer Fellow für die New America Foundation. Eines Tages erinnere ich mich deutlich daran, wie ich in einem Raum saß, in dem öffentliche politische Entscheidungsträger und Politiker Begriffe verwendeten, die nicht wirklich ihren tatsächlichen technischen Definitionen entsprachen. Kurz nach diesem Treffen wurde mir klar, dass ich, um in der öffentlichen Politik etwas zu bewegen, die entsprechenden Qualifikationen benötigte. Ich kehrte zur Schule zurück, um meinen Doktortitel in Kognitionswissenschaften mit dem Schwerpunkt auf semantischen Technologien und Online-Verbraucherdatenschutz zu erlangen. Ich hatte das große Glück, einen Mentor, einen Berater und ein Labor zu finden, das ein interdisziplinäres Verständnis dafür förderte, wie Technologie entworfen und gebaut wird. So schärfte ich meine technischen Fähigkeiten, während ich gleichzeitig einen kritischeren Blick auf die vielen Arten entwickelte, wie Technologie unser Leben beeinflusst. In meiner Rolle als AI-Direktor am Aspen Institute hatte ich dann das Privileg, mit einigen der führenden Denker in der KI zu konzipieren, zu interagieren und zusammenzuarbeiten. Und ich fand mich immer wieder zu denjenigen hingezogen, die sich ausgiebig fragten, ob und wie die KI unser tägliches Leben beeinflussen würde.

Im Laufe der Jahre habe ich verschiedene KI-Initiativen geleitet, und eine der bedeutendsten steht erst am Anfang. Nun, als Gründungsmitglied und Direktorin für strategische Partnerschaften und Innovation bei einer neuen gemeinnützigen Organisation, Young Futures, freue ich mich darauf, diese Art des Denkens einzubeziehen, um unsere Mission zu verwirklichen, die digitale Welt zu einem einfacheren Ort zum Aufwachsen zu machen. Speziell, da generative KI zum Standard wird und neue Technologien an den Start gehen, ist es dringend und entscheidend, dass wir Preteens, Teenager und ihre Unterstützungseinheiten gemeinsam durch diese riesige digitale Wildnis führen.

Worauf sind Sie am stolzesten (im Bereich der KI)?

Ich bin am stolzesten auf zwei Initiativen. Erstens meine Arbeit, die die Spannungen, Fallstricke und Auswirkungen von KI auf marginalisierte Gemeinschaften aufdeckt. In dem 2021 veröffentlichten Bericht „Macht und Fortschritt bei algorithmischer Voreingenommenheit“ artikulieren wir Monate des Engagements von Stakeholdern und der Forschung zu diesem Thema. In dem Bericht stellen wir eine meiner absoluten Lieblingsfragen auf: „Wie können wir (Daten- und algorithmische Betreiber) unsere eigenen Modelle umgestalten, um für eine andere Zukunft, eine zu prognostizieren, die die Bedürfnisse der verwundbarsten Menschen in den Mittelpunkt stellt?“ Safiya Noble ist die ursprüngliche Autorin dieser Frage, und sie ist ein ständiger Aspekt meiner Arbeit. Die zweite wichtigste Initiative kam kürzlich aus meiner Zeit als Leiterin der Daten bei Blue Fever, einem Unternehmen mit dem Ziel, das Wohlergehen von Jugendlichen in einem urteilsfreien und inklusiven Online-Raum zu verbessern. Speziell leitete ich das Design und die Entwicklung von Blue, dem ersten KI-Emotionsbegleiter. In diesem Prozess habe ich viel gelernt. Am bemerkenswertesten war, dass ich eine tiefgreifende neue Wertschätzung für den Einfluss gewonnen habe, den ein virtueller Begleiter auf jemanden haben kann, der kämpft oder vielleicht nicht die nötigen Unterstützungssysteme hat. Blue wurde entworfen und gebaut, um seine „großgeschwisterliche Energie“ zu nutzen, um den Nutzern zu helfen, über ihre mentalen und emotionalen Bedürfnisse nachzudenken.

Wie begegnen Sie den Herausforderungen der von Männern dominierten Technologiebranche und in der Folge der von Männern dominierten KI-Branche?

Leider sind die Herausforderungen real und immer noch sehr aktuell. Ich habe meinen gerechten Anteil an Ungläubigkeit an meinen Fähigkeiten und Erfahrungen bei allen Arten von Kollegen in diesem Bereich erlebt. Aber für jede dieser negativen Herausforderungen kann ich ein Beispiel nennen, wo ein männlicher Kollege mein größter Unterstützer war. Es ist ein schwieriges Umfeld, und ich halte mich an diese Beispiele, um damit umzugehen. Ich denke auch, dass sich in diesem Bereich in den letzten fünf Jahren so viel verändert hat. Die erforderlichen Fähigkeiten und beruflichen Erfahrungen, die als Teil der „KI“ gelten, sind nicht mehr ausschließlich auf die Informatik ausgerichtet.

Welchen Rat würden Sie Frauen geben, die in die KI-Branche einsteigen möchten?

Treten Sie ein und folgen Sie Ihrer Neugier. Dieser Raum ist ständig in Bewegung, und die interessanteste (und wahrscheinlich produktivste) Verfolgung ist, kontinuierlich mit kritisch optimistischer Einstellung zum Feld selbst zu sein.

Welche sind die drängendsten Probleme, denen sich KI bei ihrer Entwicklung gegenübersieht?

Tatsächlich denke ich, dass einige der drängendsten Probleme, denen sich KI gegenübersieht, die gleichen Probleme sind, die wir seit der Einführung des Webs nicht ganz richtig hinbekommen haben. Dabei geht es um Fragen der Handlungsfähigkeit, Autonomie, Privatsphäre, Fairness, Gleichheit und so weiter. Diese sind der Kern dessen, wie wir uns zwischen den Maschinen positionieren. Ja, KI kann die Dinge viel komplizierter machen - genauso wie sozialpolitische Veränderungen.

Worauf sollten KI-Nutzer achten?

KI-Nutzer sollten sich darüber im Klaren sein, wie diese Systeme ihre eigene Handlungsfähigkeit und Autonomie komplizieren oder verbessern. Zusätzlich ist es wichtig zu bedenken, dass es bewährte Methoden gibt, um mit negativeren Ergebnissen umzugehen, wenn die Diskussion darüber, wie Technologie, und insbesondere KI, unser Wohlbefinden beeinflussen kann, immer weitergeht.

Wie kann KI verantwortungsbewusst aufgebaut werden?

Ein verantwortungsbewusster Aufbau von KI ist mehr als nur der Code. Ein wirklich verantwortungsbewusster Aufbau berücksichtigt das Design, die Governance, die Richtlinien und das Geschäftsmodell. Diese Komponenten beeinflussen sich gegenseitig, und wir werden weiterhin scheitern, wenn wir uns nur bemühen, einen Teil des Aufbaus anzugehen.

Wie können Investoren besser für eine verantwortungsbewusste KI eintreten?

Eine spezifische Aufgabe, die ich bewundere, ist die von Mozilla Ventures geforderte AI-Modellkarte. Entwickelt von Timnit Gebru und anderen, ermöglicht diese Praxis der Erstellung von Modellkarten Teams - wie Investoren - die Risiken und Sicherheitsprobleme von in einem System verwendeten KI-Modellen zu bewerten. Auch im Zusammenhang damit sollten Investoren das System ganzheitlich bewerten in seiner Kapazität und Fähigkeit, verantwortungsbewusst aufgebaut zu werden. Zum Beispiel, wenn Sie vertrauens- und sicherheitsrelevante Funktionen im Build haben oder eine Modellkarte veröffentlicht haben, aber Ihr Umsatzmodell die Daten verwundbarer Bevölkerungsgruppen ausnutzt, dann besteht eine Diskrepanz zu Ihrem Anliegen als Investor. Ich denke, man kann verantwortungsbewusst aufbauen und trotzdem profitabel sein. Schließlich würde ich gerne mehr kollaborative Finanzierungsmöglichkeiten unter Investoren sehen. Im Bereich des Wohlergehens und der psychischen Gesundheit werden die Lösungen vielfältig und umfassend sein, da keine Person gleich ist und keine Lösung alle Probleme lösen kann. Kollektives Handeln unter Investoren, die daran interessiert sind, das Problem zu lösen, wäre eine willkommene Ergänzung.