MC18 NOV17x2

Open menu

Social Media Icons Shop 55

KI Robotik full 4000

 

Sicherheitsabteilung verlässt OpenAI

Es fühlt sich seltsam an, wenn die führenden Verantwortlichen für Sicherheit bei OpenAI, dem Unternehmen von Chat GPT, darunter OpenAI-Chefwissenschaftler und Mitbegründer Ilya Sutskevar, alle kündigen. Genau das ist passiert, gerade mal ein Jahr nachdem OpenAI 2023 der Öffentlichkeit präsentiert wurde. Das ist umso befremdlicher, als das Unternehmen ausdrücklich vor den möglichen Gefahren der KI gewarnt hat, die theoretisch bis zur Auslöschung der Menschheit reichen würden. Um genau diese Risiken zu minimieren, hatte man eine eigene Abteilung geschaffen, welche die Aufgabe hatte, zukünftige KI-Systeme so zu entwerfen, dass diese nicht zu mächtig werden könnten.

Offensichtlich hatte es innerhalb des Unternehmens interne Spannungen zwischen dem Sicherheitsteam und der Geschäftsleitung gegeben. Einer der Chefs des Sicherheitsteams, Jan Leike hat in einer Erklärung auf X mitgeteilt, dass "mit dem Bau intelligenter Maschinen große Risiken verbunden seien. Und dass OpenAI Verantwortung für die ganze Menschheit trage." Leider sei das Sicherheitsdenken bei OpenAI immer mehr in den Hintergrund gedrückt worden, zugunsten möglichst beeindruckender KI Produkte. Von den ursprünglich versprochenen 20% an Rechenressourcen für das Sicherheitsteam habe man nicht einmal einen Bruchteil erhalten, was die eigentliche Aufgabe praktisch unmöglich gemacht hat.

 

Risiken einfach hinnehmen?

Im Unternehmen gibt es weitere Mitarbeiter*Innen, die beauftragt sind, mögliche unkontrollierbare Risiken aus KI-Systemen wie die Bedrohung der Cybersicherheit, chemische, nukleare und biologische Bedrohungen zu minimieren. Wenn die führenden Köpfe des Sicherheitsdepartments gehen, deutet das darauf hin, dass diese sich zu wehrhaft für Sicherheitsbelange eingesetzt haben und dass nur noch die weniger kritischen Mitarbeiter*Innen im Unternehmen verblieben sind.

Eine KI ohne Einschränkungen könnte beispielsweise die perfekten Computerviren entwerfen und Hacks jedweder Sicherheitssysteme vollziehen, könnte sich gegen die Menschen richten und mehr. Man kannte diese Szenarien früher nur aus Science-Fiction Romanen und Filmen, doch seit 2023 sind sie erstmals in greifbare Nähe gerückt. Umso verwunderlicher, dass ausgerechnet in Sam Altmans Unternehmen, was 2023 noch in offenen Briefen auf genau diese Risiken hingewiesen hat, die Schutzwälle rund um die KI Systeme offenbar immer niedriger werden. Die jeweiligen Entwicklungsschritte bei der Weiterentwicklung von KI Systemen bräuchten viel mehr strenge Tests und Rückkopplungsschleifen. Die mit der KI befassten Unternehmen kommen ihrer gesellschaftlichen Verpflichtung immer weniger nach.

Das Wettrennen um Marktanteile um eine Neuverteilung und letztlich die neue Herrschaft im Internet scheint "Spaßbremsen" wie Sicherheitsteams nicht wirklich gebrauchen zu können. Es steht zu fürchten, dass dass die KI-Entwicklung nicht nur bei OpenAI künftig noch weniger sicherheitsorientiert sein wird. Die neuen Zauberlehrlinge der KI machen ihre Arbeit nicht mehr...

 

Fehlendes Problembewusstsein

Die allzu lockere Haltung des Unternehmens belegt auch der Umgang mit Rechten von Schauspieler*Innen. So hat OpenAI bei der Vorstellung der ChatGPT Version 4o eine Stimme verwendet, die frappierend jener von der Schauspielerin Scarlett Johansson im Film "She" (Spike Jonze USA 2013) ähnelt, obwohl diese im Herbst 2023 abgelehnt hatte, ihre Stimme für den Chatbot zu leihen. Erst nachdem die Schauspielerin ihre Anwälte eingeschaltet hat, wurde die Stimme abgeschaltet. 

Es scheint fast, als hätten zahlreiche Autor*Innen in der Vergangenheit, als die Künstliche Intelligenz Jahrzehnte weit entfernt war, in ihren Science Fiction Romanen intensiver darüber nachgedacht, welche Gefahren durch die KI entstehen könnten, als die Verantwortlichen es heute tun, in einer Zeit in der sich die KI mit Riesenschritten vorwärts bewegt. Wenn es die Software-Unternehmen nicht mehr für nötig erachten, ausreichende Sicherheitsnetze rund um die generative KI herum aufzuspannen, ist es vielleicht an der Zeit, dass dies an anderer Stelle geschieht. KI ist nicht die erste technische Entwicklung in der Geschichte der Menschheit, bei der Nutzen und Gefahren dicht beieinander liegen.

 

Neu im Shop

Banner Regie GK 4000

Weitere neue Artikel

Sie fallen auf, im wirklichen Leben und erst recht bei Film und Fernsehen. Was erzählen rote Haare über die Filmfiguren?

Was steckt hinter den Begriffen,- was macht die Sensor-Bauweise so besonders und wann lohnen sich die Mehrkosten?

Drohnenpiloten müssen sich während der Fussball Europameisterschaft an noch striktere Beschränkungen halten, als sonst. Was muss man beachten?

Eis zu essen ist nicht nur ein kulinarisches und sinnliches Vergnügen, es hat auch jede Menge Kinofilme inhaltlich und emotional bereichert...

Die Blackmagic URSA Cine Immersive soll stereoskopische Aufnahmen für Apples Vision Pro liefern. Ein neuer Anlauf in Sachen 3D...

Wer sein Team mit einem besonderen Dessert überraschen möchte, kann mit einem Walnusskuchen bei Schauspieler*Innen und Team punkten.

Es sind sehr besondere Filme, Reihen und Serien, in denen die Schwerkraft überwunden wird. Und obwohl VFX vieles kann, wird häufig noch real gebaut...

Kaum sind LED Scheinwerfer an den Filmsets dieser Welt etabliert, da irritieren Warnmeldungen über mögliche Gefahren

Promis wie Kevin Costner und Francis F. Coppola haben ihre Ersparnisse in Filme gesteckt. Ist sowas sinnvoll, um seine ersten Filme realisieren zu können?

Es fühlt sich seltsam an, wenn die führenden Verantwortlichen für Sicherheit bei OpenAI, dem Unternehmen von Chat GPT alle kündigen...

Es geht um mehrere hundert Millionen Euro, um welche allerlei Film-Verbände ringen, fast wie in einem Bandenkrieg

Nicht das marktschreierisch Spektakuläre, sondern das Leise, in den Menschen liegende, steht im Mittelpunkt ihrer Arbeit