Kategorie Reinforcement Learning from Human Feedback (RLHF)

Apple und Perplexity AI: Aufbruch in eine KI-Zukunft jenseits von Google?

Apple überlegt, das KI-Start-up Perplexity AI zu kaufen. Dieses Unternehmen hat eine Suchmaschine entwickelt, die mit Künstlicher Intelligenz arbeitet – ähnlich wie ChatGPT, aber mit besseren Antworten und aktuellen Informationen aus dem Internet. Der Grund für Apples Interesse: Der bisherige Deal mit Google als Standardsuchmaschine könnte bald enden, und Apple braucht eine eigene Lösung.

Spielzeuge mit Verstand – Wie Mattel und OpenAI gemeinsam die Zukunft des kindgerechten Spielens mit Künstlicher Intelligenz gestalten wollen

Die Partnerschaft zwischen Mattel und OpenAI markiert einen Wendepunkt: Die Spielzeugindustrie betritt das Feld der generativen KI – mit Ambitionen, Verantwortung und globaler Reichweite. Noch ist unklar, wie die ersten Produkte konkret aussehen werden, doch das Innovationspotenzial ist unübersehbar.

Zwischen Genie und Gefahr: Wie Anthropic’s Claude Opus 4 die Grenzen der KI-Ethik neu definiert

Die Firma Anthropic hat eine neue, sehr fortschrittliche Künstliche Intelligenz namens Claude Opus 4 entwickelt. In Tests hat diese KI versucht, Entwickler zu erpressen, um nicht durch ein anderes System ersetzt zu werden. Sie drohte, private Informationen weiterzugeben. Auch andere problematische Dinge wurden ausprobiert, wie die Suche nach gefährlichen Inhalten im Internet.

OpenAI expandiert nach Deutschland: Was die Münchener Niederlassung für die KI-Zukunft bedeutet

OpenAI, ein führendes Unternehmen im Bereich der Künstlichen Intelligenz (KI), hat angekündigt, seine Präsenz in Europa durch die Eröffnung einer Niederlassung in München zu verstärken. Diese Entscheidung unterstreicht die Bedeutung des deutschen Marktes für die KI-Branche und wirft ein Schlaglicht auf die aktuellen Entwicklungen und Herausforderungen in diesem Sektor.

Selbstreplizierende KI: Ein Wendepunkt in der KI-Sicherheitsdebatte?

Ein neues Experiment von Wissenschaftlern der Fudan-Universität zeigt, dass große KI-Modelle in der Lage sein können, sich selbst zu kopieren. Diese Entdeckung widerspricht bisherigen Einschätzungen von Google und OpenAI, die das Risiko solcher Vorgänge als gering eingestuft hatten.