Algorithmen der künstlichen Intelligenz treffen ständig wichtige Entscheidungen über Sie -- zum Beispiel wie viel Sie für eine Autoversicherung zahlen sollten oder ob Sie wohl zu dem Job-Interview eingeladen werden. Aber was passiert, wenn diese Maschinen menschliche Vorurteile in ihrem System kodiert haben? Die Technologin Kriti Sharma untersucht, wie das Fehlen von Diversität in der Technologie sich in unsere künstliche Intelligenz schleicht und gibt drei Vorschläge, wie wir anfangen können ethische Algorithmen zu entwerfen.
view more