OpenAI hat einen neuen Verifikationsprozess für Unternehmenskunden eingeführt, die künftig über die hauseigene Schnittstelle auf kommende KI-Modelle zugreifen wollen. Das gab das US-Softwareunternehmen in einem Support-Dokument bekannt. Mit der Verifikation will das Unternehmen eine "unsichere Nutzung der KI eindämmen" und seine Nutzungsbedingungen durchsetzen, gegen die zuvor eine kleine Zahl an Entwicklern verstoßen habe. Bereits veröffentlichte Sprachmodelle seien von der Änderung nicht betroffen. Anzeige Amtlicher Ausweis für Verifikation nötig Mit der Verifikation schaltet OpenAI den Zugriff auf neue KI-Modelle und zusätzliche Funktionen innerhalb der Plattform frei. Konkrete Angaben macht das Unternehmen dazu nicht. Zur Verifikation ist ein amtliches Ausweisdokument des jeweiligen Landes erforderlich, das ein Vertreter der Organisation vorlegen muss, also etwa ein Personalausweis oder Reisepass. Innerhalb von 90 Tagen ist pro Person nur eine Verifikation möglich. Laut dem Dokument stehe die Verifikation derzeit noch nicht für alle Organisationen zur Verfügung. Aktuell sei die Verifikation in 200 Ländern möglich, die das Unternehmen jedoch nicht benennt. iX-Workshop: Deep Dive in die OpenAI API: KI in eigene Anwendungen integrieren Ein Workshop für erfahrene Entwickler, in dem sie lernen, wie sie die OpenAI API in ihre Projekte integrieren können, um innovative KI-Lösungen zu entwickeln. Teilnehmende erfahren, wie sie die API authentifizieren, offizielle SDKs verwenden, System Prompts entwickeln und die Assistant API für spezifische Anwendungsfälle einsetzen können. Anmeldung und Termine unter https://heise.de/s/2AjNj Wie OpenAI zuletzt in einer eigenen Analyse bekannt gab, sieht sich das Unternehmen mit der bösartigen Nutzung seiner Sprachmodelle konfrontiert. Dabei stellte es fest, dass ChatGPT bei der Generierung von Inhalten für Bewerbungen vermeintlicher IT-Angestellter aus Nordkorea zum Einsatz gekommen ist. Ebenfalls seien Accounts mit potenziellen Verbindungen zur nordkoreanischen Regierung aufgefallen, die ChatGPT bei der Recherche und dem Debugging von Code verwendet haben sollen, um Remote-Desktop-Verbindungen anzugreifen. Während OpenAI den Zugriff von Firmenkunden auf die eigenen Sprachmodelle einschränkt, verlangt das Unternehmen von der EU weniger Restriktionen im Umgang mit künstlicher Intelligenz, etwa beim Datenschutz. So forderte OpenAI eine Vereinfachung von KI-Gesetzen und die Harmonisierung der Regeln innerhalb der EU. Zudem solle es mehr Investitionen für die Infrastruktur geben, etwa für den Bau von Rechenzentren, Glasfasernetzen und Anlagen zur Gewinnung erneuerbarer Energien. Ebenso seien finanzielle Mittel für KI-Forschung und Ausbildung notwendig. (sfe)