Internationale Konferenz zu KI-Sicherheit: Zusammenarbeit zur Vermeidung von Risiken

Die US-Regierung plant eine Konferenz zum Thema Sicherheit bei Künstlicher Intelligenz (KI), die nach den Wahlen im November in San Francisco stattfinden soll. Am 20. und 21. November 2024 werden sich führende Wissenschaftler und KI-Experten aus mindestens neun Ländern sowie der Europäischen Union treffen, um Standards und Maßnahmen zur sicheren Entwicklung von KI zu erörtern. Dieses Treffen folgt auf den KI-Sicherheitsgipfel in Großbritannien im Jahr 2023 und einen weiteren Gipfel in Südkorea im Mai 2024, bei dem die Grundlagen für ein Netzwerk von öffentlich finanzierten Sicherheitsinstituten gelegt wurden.

Zusammenarbeit zur Abwehr von KI-Risiken

Zu den Hauptthemen, die auf der Konferenz diskutiert werden, gehört der Umgang mit den Risiken, die durch die zunehmende Verbreitung von KI entstehen, insbesondere in Bereichen wie Deepfakes und der missbräuchlichen Nutzung von KI durch kriminelle Akteure. US-Handelsministerin Gina Raimondo betonte, dass der Fokus der Veranstaltung darauf liege, wie Länder gemeinsam Standards setzen können, um Gefahren durch synthetische Inhalte und schädliche KI-Anwendungen zu minimieren. Raimondo erklärte:

„Wenn wir die Risiken in den Griff bekommen, ist es faszinierend zu überlegen, welche Möglichkeiten uns offenstehen.“

Ein dringendes Problem ist die Frage, wann eine KI so leistungsfähig und potenziell gefährlich wird, dass sie strenge Kontrollen und Aufsicht benötigt. Raimondo unterstrich die Notwendigkeit internationaler Kooperation, insbesondere bei der Abwendung von Gefahren durch KI, die im Zusammenhang mit nuklearen Waffen oder Bioterrorismus stehen. Sie hob hervor, dass alle Nationen hier eine gemeinsame Verantwortung hätten, solche Bedrohungen zu verhindern.

Internationale Zusammenarbeit ohne China

Zu den teilnehmenden Ländern gehören unter anderem Australien, Kanada, Frankreich, Japan, Kenia, Südkorea, Singapur, Großbritannien und die USA sowie die Europäische Union. China, ein bedeutender Akteur im Bereich KI, ist bisher jedoch nicht Teil des Netzwerks, was die Frage nach der globalen Reichweite dieser Sicherheitsbemühungen aufwirft.

Die Veranstaltung in San Francisco ist eine technische Zusammenarbeit, die als Vorbereitung auf einen größeren internationalen KI-Gipfel im Februar 2025 in Paris dient. Dabei wird erwartet, dass Experten konkrete Maßnahmen zur Verbesserung der Sicherheitsstandards bei der KI-Entwicklung erarbeiten. Raimondo deutete an, dass diese Konferenz nur der erste Schritt sei, um eine langfristige, internationale Zusammenarbeit zu fördern.

KI und Sicherheit: Die Haltung der USA

Die US-Regierung unter Präsident Joe Biden hat im Oktober 2023 eine Durchführungsverordnung zu KI unterzeichnet, die Entwickler dazu verpflichtet, Sicherheitsprüfungen ihrer leistungsfähigsten KI-Systeme durchzuführen und diese Ergebnisse der Regierung zur Verfügung zu stellen. Das Handelsministerium wurde beauftragt, Standards zu entwickeln, die sicherstellen, dass KI-Tools vor ihrer Freigabe sicher und vertrauenswürdig sind.

Zudem haben sich führende US-Technologieunternehmen wie OpenAI bereit erklärt, die Sicherheitsstandards der Regierung einzuhalten. OpenAI gab bekannt, dass es vor der Veröffentlichung seines neuesten Modells „o1“ den nationalen Sicherheitsinstituten der USA und Großbritanniens frühzeitig Zugang gewährte.

Ausblick auf strengere Vorschriften

Obwohl Unternehmen wie OpenAI freiwillig an Sicherheitsinitiativen teilnehmen, betonte Raimondo, dass ein freiwilliges System auf Dauer nicht ausreiche. Sie forderte, dass der US-Kongress handeln müsse, um verbindliche gesetzliche Regelungen für die KI-Entwicklung zu schaffen. Viele Technologiekonzerne haben sich grundsätzlich für KI-Regulierungen ausgesprochen, allerdings befürchten einige, dass zu strenge Auflagen die Innovation in diesem Bereich behindern könnten.

Die Konferenz in San Francisco ist ein wichtiger Schritt, um international abgestimmte Maßnahmen zur Eindämmung von KI-Risiken zu entwickeln. Der Fokus liegt dabei auf der Sicherstellung, dass die fortschreitende Entwicklung von KI sowohl für die Menschheit nützlich ist als auch vor potenziellen Gefahren geschützt wird.

Weiter
Weiter

YouTube führt neue KI-Tools für Kreativität und Monetarisierung ein