Die Väter der KI treffen sich dringend

-

Es ist Panik! Eine Gruppe von Spezialisten, bestehend aus den beiden Gründervätern der künstlichen Intelligenz, hielt eine Krisensitzung ab, um über die katastrophalen Risiken der KI zu sprechen.

Es ist nicht das erste Mal, dass wir Experten über die Gefahren künstlicher Intelligenz sprechen hören. Doch dieses Mal sind es die Väter der künstlichen Intelligenz, die sich über die „katastrophalen Risiken“ dieser Technologie Sorgen machen. Um zu verhindern, dass KI der menschlichen Kontrolle entgeht, schlagen diese Wissenschaftler einen Regulierungsrahmen vor, der mit in einem Register registrierten Modellen ausgestattet ist.

Die Väter der KI glauben, dass KI die menschliche Intelligenz übertreffen könnte?

Spezialisten auf dem Gebiet der künstlichen Intelligenz haben Es gibt unterschiedliche Meinungen über die mit dieser Technologie verbundenen Risiken. Während einige denken, dass KI nur ein relativ harmloses Werkzeug ist, dessen einzige Aufgabe darin besteht, Menschen zu helfen, befürchten andere, dass dies der Fall sein könnte sich der menschlichen Kontrolle entziehen.

Zu denjenigen, die über die negativen Folgen dieser Technologie besorgt sind, gehören: Geoffrey Hinton und Yoshua Bengio. Diese beiden Spezialisten werden berücksichtigt Gründerväter der künstlichen Intelligenz.

YouTube-Video

Denken Sie daran, dass sie es getan haben erhielt 2018 den Turing-Preis für ihre Aktionen zum Deep Learning mit dem Franzosen Yann LeCun. Vor nicht allzu langer Zeit, diese beiden Männer nahm am dritten Idais-Treffen teil (International Dialogues on AI Security), die in Venedig stattfand. Beachten Sie, dass dies eine der wichtigsten Veranstaltungen ist, die verschiedene Spezialisten der Branche zusammenbringt.

Diese Expertengruppe hat eine Pressemitteilung veröffentlicht, in der es hauptsächlich um die R gehtRisiken im Zusammenhang mit der Ankunft einer KI, die die menschliche Intelligenz übertreffen kann. Dies könnte sofort oder spätestens innerhalb weniger Jahrzehnte geschehen.

Ein Regulierungsrahmen, der drei Lösungen bietet

Die ebenfalls von Zhang Ya-Qin, dem ehemaligen Präsidenten des chinesischen Riesen Baidu, und Stuart Russell unterzeichnete Pressemitteilung schlägt drei Vorschläge vor, die es ermöglichen, Katastrophenszenarien zu vermeiden.

Zunächst einmal: Diese KI-Experten schlagen vor, KI-Modelle aufzuzeichnen. Die internationale Gemeinschaft sollte Vereinbarungen und Institutionen schaffen, um diese Modelle zu registrieren und etwaige Vorfälle zu melden.

Als nächstes müssen alle KI-Entwickler dazu in der Lage sein demonstrieren die Sicherheit ihrer Modelle wenn ihre Fähigkeiten jemals bestimmte Schwellenwerte überschreiten. Schließlich wird es notwendig sein unternehmen a unabhängige globale Forschung zur KI-Sicherheit. Diese Studie soll es ermöglichen, die Gültigkeit von Sicherheitsansprüchen der Entwickler zu überprüfen.

YouTube-VideoYouTube-Video

Beachten Sie jedoch, dass die Pressemitteilung Es wird nicht angegeben, was ein Risiko darstellen könnte oder welche Schwellenwerte festgelegt werden sollten.

Denken Sie daran, dass dies nicht das erste Mal ist, dass Geoffrey Hinton zu diesem Thema spricht. Im Jahr 2003 hat er von Google zurückgetreten ihre Befürchtungen über die Entwicklung der künstlichen Intelligenz frei äußern zu können.

Und Sie, was ist Ihre Meinung? Glauben Sie, dass KI die menschliche Intelligenz tatsächlich übertreffen könnte? Schreibt gerne in die Kommentare.

Teilen Sie den Artikel:


Facebook


LinkedIn

Unser Blog wird von Lesern betrieben. Wenn Sie über Links auf unserer Website einkaufen, verdienen wir möglicherweise eine Affiliate-Provision.

-

PREV Der französische Automobilmarkt verzeichnete im fünften Monat in Folge einen Rückgang
NEXT YouTube und Unternehmen ziehen ihre Krallen aus