Microsoft - Sind von künstlicher "Superintelligenz" weit entfernt

Reuters · Uhr (aktualisiert: Uhr)
Quelle: LookerStudio/Shutterstock.com

Eine eigenständig agierende künstliche "Superintelligenz" ist nach Einschätzung von Microsoft noch weit von der Realität entfernt.

"Es ist absolut unwahrscheinlich, dass wir in den kommenden zwölf Monaten eine sogenannte AGI sehen werden, bei der Computer leistungsfähiger sind als Menschen", sagte Brad Smith, Präsident des Software-Konzerns, am Donnerstag. "Das wird noch Jahre, wenn nicht Jahrzehnte dauern." Allerdings müsse man sich bereits jetzt Gedanken über die Sicherheit dieser Technologie machen.

AGI steht für "Artificial General Intelligence" ("Künstliche Allgemeine Intelligenz"). Anders als bisherige KI wie ChatGPT der Microsoft-Beteiligung OpenAI können diese Programme auch komplexe Aufgaben ohne menschliche Eingriffe erledigen. Kritiker befürchten, dass eine AGI Kriege anzetteln oder für den Menschen tödliche Viren entwickeln und in Umlauf bringen könnte.

Die Diskussion um den Zeitpunkt der "Technologischen Singularität", an dem künstliche Intelligenz die menschliche übertrifft, hatte durch die Wirren um den Kurzzeit-Rauswurf des OpenAI-Chefs Sam Altman neue Nahrung erhalten. Möglicherweise spielten Querelen im Umgang mit einem Durchbruch in der KI-Forschung eine Rolle in der Affäre. Insidern zufolge hatten die Entwickler des Projekts "Q*" (sprich: Q-Star) den Verwaltungsrat von OpenAI vor den potenziell menschheitsgefährdenden Folgen einer vorschnellen Veröffentlichung des Programms gewarnt. Aus Sicht des Microsoft-Präsidenten Smith spielte das Thema Superintelligenz bei Altmans Rauswurf keine Rolle. Es habe zwar Meinungsverschiedenheiten mit dem Verwaltungsrat gegeben, allerdings nicht in fundamentalen Fragen wie dieser.

Weltweit ringen Gesetzgeber um eine angemessene KI-Regulierung. Bei einem KI-Gipfel Anfang November hatten sich mehrere Staaten zur Zusammenarbeit bei diesem Thema verpflichtet. "Was wir wirklich brauchen, sind Sicherheitsnetze", sagte Smith weiter. "So wie es Notbremsen in Aufzügen oder Stromkreisunterbrecher gibt, sollte es auch in KI-Systemen, die kritische Infrastrukturen steuern, solche Sicherungen geben, damit sie immer unter menschlicher Kontrolle bleiben."

Das könnte dich auch interessieren

Neueste exklusive Artikel