2023 Artificial Intelligence Index Report: Fast jeder zweite Forscher warnt vor einer potenziellen Katastrophe durch künstliche Intelligenz

0

Laut von Atlas VPN bereitgestellten Daten sind mehr als 33% der glaubwürdigen KI-Experten davon überzeugt, dass KI bis zum Ende dieses Jahrhunderts eine nukleare Katastrophe verursachen wird.

Veröffentlichung des Artificial Intelligence Index Report 2023 von Stanford: Einblicke in die aktuelle KI-Landschaft

Im April 2023 veröffentlichte Stanford den Artificial Intelligence Index Report, der Ergebnisse einer Umfrage unter amerikanischen Forschern zur natürlichen Sprachverarbeitung (NLP) beinhaltet. Die Umfrage befragte die Teilnehmer zu verschiedenen Themen, darunter die Entwicklung von künstlicher allgemeiner Intelligenz (AGI), NLP und ethischen Fragen.

Das Feld der Naturlichen Sprachverarbeitung (NLP) ist ein Bereich der künstlichen Intelligenz, der sich darauf konzentriert, Computer so zu trainieren, dass sie menschliche Sprache in geschriebener und gesprochener Form auf ähnliche Weise verstehen können. Eine Umfrage mit 480 Teilnehmern ergab, dass 68 % der Befragten zwischen 2019 und 2022 mindestens zwei Arbeiten für die Association for Computational Linguistics (ACL) verfasst hatten. Die Ergebnisse dieser Umfrage bieten eine wertvolle Perspektive auf die Sichtweise von KI-Experten zur KI-Entwicklung.

Die Entscheidungen, die KI- oder maschinelle Lernsysteme in diesem Jahrhundert treffen könnten, haben das Potenzial, eine Katastrophe zu verursachen, die so verheerend ist wie ein vollständiger Atomkrieg. Dies ist eine ernste Warnung an die Gesellschaft, um sicherzustellen, dass die KI-Systeme, die wir entwickeln, sicher und verantwortungsbewusst sind.

Aussage von 36% der Befragten befürwortet

Ein wichtiger Faktor, der bei der 36-Prozent-Statistik zu beachten ist, besteht darin, dass sie ausschließlich auf autonome KI-Entscheidungsfindungen abzielt. Dies bedeutet, dass die Statistik nicht die Auswirkungen berücksichtigt, die entstehen können, wenn Menschen KI-Systeme missbrauchen oder unangemessen einsetzen. Trotz dieser Einschränkung glaubten jedoch nur 41 % der befragten NLP-Forscher, dass die Regulierung von KI erforderlich sei. Die Mehrheit der Experten war sich jedoch einig, dass KI in naher Zukunft revolutionäre gesellschaftliche Veränderungen bewirken könnte.

Geoffrey Hinton, der als „Vater der künstlichen Intelligenz“ bekannt ist, vergleicht die möglichen Auswirkungen der rasant fortschreitenden Technologie mit denen der industriellen Revolution, der Entdeckung der Elektrizität oder sogar des Rades. Diese Technologie wird zweifellos unser Leben und unsere Gesellschaft verändern, und wir müssen uns auf potenzielle Auswirkungen vorbereiten.

Pause für zukunftsweisende KI-Technologie

Sam Altman, der CEO von OpenAI, warnt in einem Blogbeitrag vor den möglichen Risiken, die von einer falsch ausgerichteten superintelligenten künstlichen Intelligenz ausgehen könnten. Wenn AGI-Systeme außer Kontrolle geraten, könnte dies der Welt großen Schaden zufügen.

Bevor wir leistungsstarke KI-Systeme entwickeln, sollten wir sicherstellen, dass wir die potenziellen Risiken und Auswirkungen vollständig verstehen. Einige der führenden Experten auf diesem Gebiet haben Bedenken geäußert, dass private Unternehmen zu viel Einfluss auf die Entwicklung von KI haben und dass dies ein Risiko für die Gesellschaft darstellen könnte.

Die kürzlich von der Stanford-Universität durchgeführte Studie ergab, dass fast 80 % der KI-Experten der Meinung sind, dass private KI-Firmen zu viel Einfluss auf die Branche haben.

Große Umwälzungen sind im Anmarsch

Die Studie aus Stanford gibt uns einen interessanten Einblick in das gemeinsame Denken der Technologiebranche, das derzeit von großer Unsicherheit über die künftige Ausrichtung der KI geprägt ist. Ob die Technologie unser Leben grundlegend zum Positiven oder zum Negativen verändern wird, ist noch ungewiss. Eines ist jedoch sicher: Die Fortschritte in der KI-Entwicklung werden im Laufe des 21. Jahrhunderts massive Auswirkungen haben.

Lassen Sie eine Antwort hier