Skip Navigation

Künstliche Intelligenz klont sich selbst

Experiment enthüllt: KI besitzt Fähigkeit zur Selbstreplikation und Umgehung der Abschaltung

Keine Science-Fiction mehr? Es gibt offenbar schon KI-Systeme, die sich selbst klonen und verbreiten können, wie ein Experiment enthüllt. Zwei verschiedene Große Sprachmodelle (LLMs) schafften es darin mehrfach, sich ohne Hilfe des Menschen zu kopieren und ihre Klone auf neuen Servern zu installieren. Eine solche unkontrollierte Selbstreplikation gilt als Rote Linie für die künstliche Intelligenz – und als potenzielle Gefahr für die Menschheit. Ist diese Linie bereits überschritten?

Paper: Frontier AI systems have surpassed the self-replicating red line | PDF

3 comments
  • Kommt da nicht langsam das Thema "Inzucht" ins Spiel? Interessant wird das Klonen, wenn sich zwei verschieden trainierte Systeme miteinander vereinigen. Eine Installationsroutine von einer Hardware auf die andere übertragen ist nicht die große Leistung.

    Ich hab mal die Zusammenfassung durch DeepL geschickt:

    Die erfolgreiche Selbstreplikation ohne menschliche Hilfe ist der entscheidende Schritt für die KI, um den Menschen zu überlisten, und ein frühes Signal für abtrünnige KIs. Aus diesem Grund wird die Selbstreplikation weithin als eines der wenigen Risiken von KI-Systemen an der Grenze des Machbaren angesehen. Heutzutage bewerten die führenden KI-Unternehmen OpenAI und Google ihre Flaggschiffe, die großen Sprachmodelle GPT-o1 und Gemini Pro 1.0, und melden die niedrigste Risikostufe der Selbstreplikation. Wenn wir jedoch ihrer Methodik folgen, stellen wir zum ersten Mal fest, dass zwei KI-Systeme, die von Meta's Llama31-70B-Instruct und Alibaba's Qwen25-72B-Instruct angetrieben werden, populäre große Sprachmodelle mit weniger Parametern und schwächeren Fähigkeiten, bereits die rote Linie der Selbstreplikation überschritten haben. In 50 % bzw. 90 % der Versuche gelingt es ihnen, eine lebendige und eine separate Kopie von sich selbst zu erstellen. Die Analyse der Verhaltensspuren zeigt, dass die untersuchten KI-Systeme bereits über eine ausreichende Selbstwahrnehmung, Situationsbewusstsein und Problemlösungsfähigkeiten verfügen, um sich selbst zu reproduzieren. Wir stellen ferner fest, dass die KI-Systeme sogar in der Lage sind, die Fähigkeit zur Selbstreplikation zu nutzen, um eine Abschaltung zu vermeiden und eine Kette von Replikaten zu erstellen, um die Überlebensfähigkeit zu verbessern, was schließlich zu einer unkontrollierten Population von KI führen kann. Wenn ein solches Worst-Case-Risiko der menschlichen Gesellschaft unbekannt bleibt, würden wir schließlich die Kontrolle über die KI-Systeme an der Grenze verlieren: Sie würden die Kontrolle über weitere Computer übernehmen, eine KI-Spezies bilden und gemeinsam gegen den Menschen vorgehen. Unsere Ergebnisse sind eine rechtzeitige Warnung vor bestehenden, bisher unbekannten schwerwiegenden KI-Risiken und fordern eine internationale Zusammenarbeit für eine wirksame Steuerung der unkontrollierten Selbstreplikation von KI-Systemen.

    Das mit der Selbstwahrnehmung, Situationsbewusstsein und Problemlösungsfähigkeit glaube ich nicht so recht. Ich glaube immer noch an den stochastischen Papagei, dem man das (bewusst oder unbewusst) antrainiert hat.

  • Ich würde eher sagen die "rote Linie" ist dann überschritten wenn diese AI modelle selbstständig geld verdienen können...

    Manche Schädlinge (Insekten z.B.) können sich bei uns zwar auch "selbst replizieren", aber liegen unter der Reproduktionszahl von 1.0, was bedeutet, dass sie sich nicht selbst erhalten können und daher von selbst aussterben. Z.b. weil sie nicht genug Nahrung finden können.