Aktuelles

Welche Gefahren kann künstliche Intelligenz mit sich bringen?

Es gibt viele Schreckensszenarien, die die künstliche Intelligenz betreffen. Maschinen, einst für einen komfortableren Lebensstil gebaut, erheben sich über die Menschen, überflügeln sie mit ihrer Intelligenz und reißen die Weltherrschaft an sich. Solche Ideen finden sich nicht nur in Filmen und Büchern, auch ITler und Visionäre aus dem Silicon Valley verbreiten immer wieder solche Szenarien und erklärten, der Mensch müsse aufpassen, dass die Maschinen nicht böse würden.

Nach Meinung des Philosophen Richard David Precht sind diese Annahmen abwegig. In einem Interview mit dem „Deutschlandfunk“ erklärt er, dass „in der Evolution erst der Wille da war und sich dann bei ganz wenigen Tieren auch noch Intelligenz dazu gesellt hat“. Dass sich aus der Intelligenz heraus ein Wille entwickeln könnte, ist nach Ansicht des Philosophen „völliger Unsinn“, da es als Grundvoraussetzung eines menschlichen oder tierischen Leibes bedürfe. Insofern seien solche Schreckgespenster der Digitalisierung „abenteuerlich“.

Stattdessen sieht Precht andere Risiken, die durch den Einsatz künstlicher Intelligenz auf den Menschen zukommen. Leicht lässt sich dies am Beispiel des autonomen Fahrens nachvollziehen. Hier gibt es Überlegungen, die Autos mit Programmierungen zu versehen, welche eine Risikoabschätzung als Lebenswertverrechnung darstellen – auch unter den Namen „Todesalgorithmus“ geläufig. Wenn sich ein Unfall nicht vermeiden lässt, überfährt das Auto dann die alte Frau oder das kleine Kind?

„Wir haben uns als Gesellschaft dazu entschieden, die Risiken des Individualverkehrs zu akzeptieren – aber ganz etwas anderes wäre es zuzulassen, einem automatischen System die Steuerung zu überlassen und dabei durch Wahrscheinlichkeit eine gewisse Opferzahl in Kauf zu nehmen – selbst wenn die um das Zehnfache niedriger läge“, zitiert die Zeitung „Augsburger Allgemeine“ den Philosophen Julian Nida-Rümelin, der zugleich ein Experte für Risikoethik und das Zusammenspiel von Digitalisierung und Ethik ist. Ähnlich scheint es auch Precht zu sehen, der solche ethischen Programmierungen ablehnt, da sie nicht mit unserem Grundgesetz vereinbar seien.

Des Weiteren sieht Precht darin ein Risiko, die Kontrolle über künstliche Intelligenz insofern verlieren zu können, als dass diese immer komplexere Aufgaben durch Algorithmen übernimmt. Als Beispiel nennt er die globalen Finanzmärkte. „Je intelligenter der Hochfrequenzhandel wird, je mehr er sich verselbstständigt, umso pannenanfälliger oder unkontrollierbarer wird er. Also, Zusammenbruch des Weltfinanzsystems durch eine entgleiste künstliche Intelligenz – das halte ich für ein realistisches Szenario“, sagt er gegenüber dem „Deutschlandfunk“.

Und so gilt es, die Kontrolle über die Systeme zu behalten, die trotz aller Intelligenz niemals so agieren können wie ein Mensch. „Der Mensch allein besitzt die Fähigkeit zur Freiheit zur Vernunft – das heißt aber auch, wir allein tragen die Verantwortung“, meint der Philosoph Nida-Rümelin.

Unsere Experten bieten Ihnen auf Ihren Veranstaltungen spannende Einblicke in die Themen Digitalisierung und Ethik.

Vielseitige und renommierte Redner:

Julian Nida-Rümelin

Ehemaliger Kulturstaatsminister, Philosoph und Ethiker

Anselm Bilgri

Unternehmenskultur- und Ethik-Experte

Susan Neiman

Philosophin und Direktorin des Einstein Forums

Moritz Freiherr Knigge

Erfolgreicher Unternehmensberater und Autor

Gregor Gysi

Ehemaliger Fraktionsvorsitzender der Linkspartei

Quellen: www.deutschlandfunkkultur.de und www.augsburger-allgemeine.de

Contact

    Speaker

    Topics

    Organiser / Enterprise

    Date / Time / Venue

    Audience

    Budget

    Name

    Enterprise

    Street / Number / Zip Code / City

    Telefon / Telefax

    Email

    Note / Comment

    ×
    Kontakt

      Redner

      Themen

      Veranstalter / Unternehmen

      Datum / Uhrzeit / Ort

      Publikum

      Budget

      Vorname / Nachname

      Unternehmen

      Straße / Hausnummer / Plz / Ort

      Telefon / Telefax

      Email

      Bemerkung / Textfeld

      ×