MC18 NOV17x2

Open menu

Social Media Icons Shop 55

KI Robotik full 4000

 

Sicherheitsabteilung verlässt OpenAI

Es fühlt sich seltsam an, wenn die führenden Verantwortlichen für Sicherheit bei OpenAI, dem Unternehmen von Chat GPT, darunter OpenAI-Chefwissenschaftler und Mitbegründer Ilya Sutskevar, alle kündigen. Genau das ist passiert, gerade mal ein Jahr nachdem OpenAI 2023 der Öffentlichkeit präsentiert wurde. Das ist umso befremdlicher, als das Unternehmen ausdrücklich vor den möglichen Gefahren der KI gewarnt hat, die theoretisch bis zur Auslöschung der Menschheit reichen würden. Um genau diese Risiken zu minimieren, hatte man eine eigene Abteilung geschaffen, welche die Aufgabe hatte, zukünftige KI-Systeme so zu entwerfen, dass diese nicht zu mächtig werden könnten.

Offensichtlich hatte es innerhalb des Unternehmens interne Spannungen zwischen dem Sicherheitsteam und der Geschäftsleitung gegeben. Einer der Chefs des Sicherheitsteams, Jan Leike hat in einer Erklärung auf X mitgeteilt, dass "mit dem Bau intelligenter Maschinen große Risiken verbunden seien. Und dass OpenAI Verantwortung für die ganze Menschheit trage." Leider sei das Sicherheitsdenken bei OpenAI immer mehr in den Hintergrund gedrückt worden, zugunsten möglichst beeindruckender KI Produkte. Von den ursprünglich versprochenen 20% an Rechenressourcen für das Sicherheitsteam habe man nicht einmal einen Bruchteil erhalten, was die eigentliche Aufgabe praktisch unmöglich gemacht hat.

 

Risiken einfach hinnehmen?

Im Unternehmen gibt es weitere Mitarbeiter*Innen, die beauftragt sind, mögliche unkontrollierbare Risiken aus KI-Systemen wie die Bedrohung der Cybersicherheit, chemische, nukleare und biologische Bedrohungen zu minimieren. Wenn die führenden Köpfe des Sicherheitsdepartments gehen, deutet das darauf hin, dass diese sich zu wehrhaft für Sicherheitsbelange eingesetzt haben und dass nur noch die weniger kritischen Mitarbeiter*Innen im Unternehmen verblieben sind.

Eine KI ohne Einschränkungen könnte beispielsweise die perfekten Computerviren entwerfen und Hacks jedweder Sicherheitssysteme vollziehen, könnte sich gegen die Menschen richten und mehr. Man kannte diese Szenarien früher nur aus Science-Fiction Romanen und Filmen, doch seit 2023 sind sie erstmals in greifbare Nähe gerückt. Umso verwunderlicher, dass ausgerechnet in Sam Altmans Unternehmen, was 2023 noch in offenen Briefen auf genau diese Risiken hingewiesen hat, die Schutzwälle rund um die KI Systeme offenbar immer niedriger werden. Die jeweiligen Entwicklungsschritte bei der Weiterentwicklung von KI Systemen bräuchten viel mehr strenge Tests und Rückkopplungsschleifen. Die mit der KI befassten Unternehmen kommen ihrer gesellschaftlichen Verpflichtung immer weniger nach.

Das Wettrennen um Marktanteile um eine Neuverteilung und letztlich die neue Herrschaft im Internet scheint "Spaßbremsen" wie Sicherheitsteams nicht wirklich gebrauchen zu können. Es steht zu fürchten, dass dass die KI-Entwicklung nicht nur bei OpenAI künftig noch weniger sicherheitsorientiert sein wird. Die neuen Zauberlehrlinge der KI machen ihre Arbeit nicht mehr...

 

Fehlendes Problembewusstsein

Die allzu lockere Haltung des Unternehmens belegt auch der Umgang mit Rechten von Schauspieler*Innen. So hat OpenAI bei der Vorstellung der ChatGPT Version 4o eine Stimme verwendet, die frappierend jener von der Schauspielerin Scarlett Johansson im Film "She" (Spike Jonze USA 2013) ähnelt, obwohl diese im Herbst 2023 abgelehnt hatte, ihre Stimme für den Chatbot zu leihen. Erst nachdem die Schauspielerin ihre Anwälte eingeschaltet hat, wurde die Stimme abgeschaltet. 

Es scheint fast, als hätten zahlreiche Autor*Innen in der Vergangenheit, als die Künstliche Intelligenz Jahrzehnte weit entfernt war, in ihren Science Fiction Romanen intensiver darüber nachgedacht, welche Gefahren durch die KI entstehen könnten, als die Verantwortlichen es heute tun, in einer Zeit in der sich die KI mit Riesenschritten vorwärts bewegt. Wenn es die Software-Unternehmen nicht mehr für nötig erachten, ausreichende Sicherheitsnetze rund um die generative KI herum aufzuspannen, ist es vielleicht an der Zeit, dass dies an anderer Stelle geschieht. KI ist nicht die erste technische Entwicklung in der Geschichte der Menschheit, bei der Nutzen und Gefahren dicht beieinander liegen.

 

Neu im Shop

Banner Regie GK 4000

Weitere neue Artikel

Premiere Pro und After Effects bekommen mächtige Verbesserungen spendiert, die viel Zeit sparen...

Krankenhäuser sind wie Brenngläser für menschliche Schicksale, -kein Wunder, dass so viele Filme und Serien genau dort angesiedelt sind...

Warum große Katastrophen die Zuschauer seit Anfang der Filmgeschichte bis heute in die Kinos gelockt haben...

Irgendwann ist es passiert, man hat vergessen, Videodateien auf den Rechner zu kopieren und die SD Karte für neue Aufnahmen formatiert. Was kann man tun?

Wie die Nazis im 3. Reich sogar die Märchenfilme für ihre Propaganda instrumentalisierten...

Warum das, was uns Medien aller Art als Schönheit präsentieren, verlogen und für das Kino und uns Menschen herausfordernd ist...

Es ist ein Tabu, man redet nicht darüber, wie absolut unfair sich manche Schauspieler an Filmsets verhalten...

Segen und Schwächen der KI werden deutlicher. Warum nehmen die Halluzinationen der KI immer mehr zu?

Kameras und Scheinwerfer sind nicht auf dunkle Hauttypen abgestimmt,- die Geschichte einer technischen Ungleichbehandlung

Sie kommen selten vor, doch sie ziehen eine deutliche Spur durch die Filmgeschichte,- wir schauen auf die Highlights...

Hersteller von KI getriebener Musiksoftware geben zu, ihr KI Modell mit kommerziellen Songs trainiert zu haben. Das bedeutet Ärger!

Zu den wichtigsten Tools für die Schärfeerkennung gehört die Einfärbung der scharf abgebildeten Konturen