In einem früheren "All Inclusive?!?"-Talk haben wir über inklusive Sprache gesprochen: Wie sorgen wir dafür, dass alle KollegInnen und KundInnen sich in ihrer Sprache angesprochen fühlen? Wie schreiben wir unsere Dokumente? Worauf achten wir in unserer Software und im UX Design?

Mittlerweile hat der Einsatz von Large Language Models rasant zugenommen, ohne KI kommen wir gefühlt kaum noch aus. Gleichzeitig wissen wir, dass die Modelle viele Biases beinhalten, die zu ethisch fragwürdigen oder nach menschlichem Ermessen unfairen Ergebnissen führen können – und, dass die KI diese Vorurteile von uns gelernt hat! Wenn nun aber die KI von uns lernt und wir von der KI, wo setzen wir dann an, um uns gemeinsam zu verbessern?

In diesem Talk greifen wir noch einmal alte und neue Beispiele zu inklusivem Design und Diversität in der Softwareentwicklung auf. Darauf aufbauend zeige ich, wie ich diese Beispiele beim Bau eines Custom GPT im Prompting genutzt habe, um einen Diversity Bias in Dokumenten oder auf Webseiten aufzuspüren, und welche Erfahrungen ich daraus mitgenommen habe.

In Teil 1 der "All Inclusive"-Reihe haben wir gefragt: "Wie verändert unser Denken unsere Sprache und unsere Sprache unser Denken?" Heute müssen wir (auch) fragen: "Wie verändert unsere Sprache die KI und die KI unser Denken?"