Dürfen KI-Unternehmen urheberrechtlich geschützte Liedtexte zum Training ihrer Modelle verwenden? Das Landgericht München gibt in dieser Grundsatzfrage Musiklizenzenverwalter GEMA recht. OpenAI habe mit ChatGPT gegen Urheberrecht verstoßen und soll nun Schadensersatz zahlen.
Während generative KI immer mehr in unseren Alltag einsickert, drohen wir den Kern dessen zu verlieren, was uns sein lässt. Große Sprachmodelle zu nutzen, mag praktisch sein, doch sollten wir darüber nicht vergessen, dass wir Menschen sind.
Die Suche im Netz verschiebt sich zunehmend in Richtung Chatbots. Dabei könnte sich drastisch ändern, wie wir an Informationen gelangen – und wie viel am Ende von der Angebotsvielfalt im Netz übrig bleibt. Eine Studie hat das neue Phänomen nun untersucht.
Menschen vertrauen ChatGPT intimste Informationen an. Der Hersteller scannt die Chats, lässt sie von Moderator*innen lesen und gibt sie in bestimmten Fällen sogar an die Polizei weiter. Das hat das KI-Unternehmen Open AI als Sicherheitsmaßnahme nach einem Suizid eines Nutzers verkündet.
Die weltweiten Großrechenzentrumskapazitäten werden von den Tech-Konzernen aktuell massiv ausgebaut. Ein starker Antrieb für Aufrüstung und Neubau von Rechenzentren ist generative KI, deren Umweltauswirkungen beim Energie- und Wasserverbrauch und bei den Elektroschrottbergen endlich mitbedacht gehören.
KI-Systeme wie ChatGPT müssen sich ab dem 2. August an die KI-Verordnung halten. Mit neuen Leitlinien und einem Kodex will die EU-Kommission die oftmals vagen Vorgaben in Form bringen. Ein Überblick.
Europa hat schon ein KI-Gesetz. Manche Teile davon sind aber vage, ein „Praxisleitfaden“ soll deshalb Details nachliefern. Dabei haben Unternehmen viel zu sagen – und statt vor echten Problemen könnte die Handreichung eher vor hypothetischen Schreckensszenarien schützen. Zivilgesellschaft und Abgeordnete im Parlament sind besorgt.
Deutschlandweit mangelt es an Lehrkräften. Statt aber für mehr Personal zu sorgen, setzen viele Landeschulbehörden auf sogenannte Künstliche Intelligenz. Wie hohl die Versprechen der Anbieter solcher Lösungen sind, demonstrierten Rainer Mühlhoff und Marte Hennigsen beim diesjährigen Chaos Communication Congress.
Die auf Machine Learning basierende Suchmaschine Perplexity führt Werbung ein, um im Wettbewerb der KI-Unternehmen mitzuhalten. Von dem Schritt sollen auch Verlagspartner wie Der Spiegel profitieren. Andere Verlage hatten Perplexity wegen Urheberrechtsverstößen verklagt.
Die KI-Verordnung ist zwar fertig, aber was sie genau bedeutet, das ist noch lange nicht ausgehandelt. Für KI-Modelle wie ChatGPT fehlen noch sogenannte Praxisleitfäden. Ein erster wird gerade erarbeitet – und mit dem Prozess sind viele unzufrieden.
KI-generierte Übersetzungen von E-Mails, Nachrichtenartikeln oder Speisekarten sind für unsere Gastautorin überhaupt kein Problem. Aber bei literarischen Texten sollten allein Menschen Hand anlegen, argumentiert sie – und vor allem Buchverlage sollten von KI die Finger lassen.
Ein neues Tool von OpenAI soll erkennen können, ob ein Bild echt ist oder mit dem Bildgenerator DALL-E erstellt wurde. Etwas ähnliches hat das gehypte Unternehmen bereits für seine KI-generierten Texte versprochen – und ist daran gescheitert.
Immer mehr Geld für sogenannte Künstliche Intelligenz, ohne Rücksicht auf die Konsequenzen. Dazu absurdes Marketing mit Warnungen vor Gefahren. Das ist kein Spiel, das betrifft uns am Ende alle.
Kenianische Arbeitnehmer säubern für weniger als zwei US-Dollar pro Stunde Trainingsdaten für Unternehmen wie OpenAI. Das hat sich nicht verbessert, seit es vor einem Jahr publik wurde. Mophat Okinyi, Menschenrechtsaktivist und Gewerkschafter, beklagt im Interview katastrophale Arbeitsbedingungen trotz Milliardenumsätzen der westlichen Unternehmen.
Der österreichische Arbeitsmarktservice hat einen auf ChatGPT basierenden „Berufsinfomat“ eingeführt. Der Bot soll zu Berufsbildern informieren. Stattdessen erweist er sich als Lehrbuch-Beispiel dafür, welche Schwächen eine Behörde in Kauf nimmt, wenn sie solche Systeme einsetzt.
Der britische Premierminister spricht von einem Meilenstein. Die EU und 28 Staaten, darunter die USA und China, haben eine gemeinsame Erklärung zu Künstlicher Intelligenz verfasst. Der Text sagt viel über unseren Umgang mit Technologie – und lässt eine gefährliche Lücke. Eine Analyse.
Moderator:innen für Facebook in Kenia klagen gegen den Mutterkonzern Meta und zwei weitere Subunternehmen. Sie glauben zu Unrecht entlassen worden zu sein. Die Versuche, eine Einigung zu erzielen, sind nun gescheitert. Der Fall geht jetzt erneut vor Gericht.
Weil die Diskussion um ChatGPT und andere Sprachmodelle einfach nicht abebben will, beteiligen wir uns eben dran. Andernfalls drohen wir noch verrückt zu werden. Debora Weber-Wulff und Constanze Kurz schreiben sich den Frust von der Seele, präsentieren aber auch drei einfache Regeln für eine ethische Verwendung von KI-Systemen.
Mit der Cryptowährung Worldcoin will der Unternehmer Sam Altman die Welt zu einem gerechteren Ort machen. Als Grundeinkommen soll sie allen Menschen zukommen und vor den Gefahren Künstlicher Intelligenz schützen. Dazu bemüht Altman erneut die Angst vor einer KI, die den Menschen über den Kopf wächst und die den KI-Hype wesentlich antreibt. Ein Kommentar.
Die Debatte um Künstliche Intelligenz und ChatGPT führt dramatisch in die Irre. In seiner Ringvorlesung für die Universität Erfurt fächert der Autor zehn Gefahren aktuell gehypter KI-Systeme auf und argumentiert: Nicht etwa intelligente Maschinen sind das Problem, sondern der menschliche Blick auf Technologie.