8
submitted 1 day ago by [email protected] to c/[email protected]

Wie wir alle Wissen, können Bots heutzutage und in Zukunft den Turing-Test bestehen. Das bedeutet, dass man an einem Kommentar nicht sehen kann, ob dieser von einem Mensch oder einem Bot geschrieben wurde.

Das erzeugt ein großes Problem: Internet-plätze wie Feddit und andere Treffpunkte leben davon, dass Menschen sich im Internet begegnen können. Ich denke, dass diese Treffpunkte wertvoll sind und aufrecht erhalten sollten.

Doch wenn diese Treffpunkte von Bots überschwemmt werden, die Content generieren, z.B. um subtile Werbung/Propaganda zu erzeugen, dann zerrüttet das das Netzwerk, weil es die Menschlichkeit des Treffpunkts infrage stellt und Zweifel an der "Echtheit" der Inhalte aufkommen lässt.


Ich schlage daher vor, auf dem 39. Chaos Communication Congress viele kleine Chipkarten auszugeben (eine pro Person), die eine kryptographische Identität (d.h. ein public/private-key-pair) enthalten, damit man im Internet beweisen kann, dass man am CCC war. Dadurch kann man beweisen, dass ein Mensch hinter dem Account steht und nicht nur eine KI.

Gerne kann man statt dem CCC auch andere, dafür geeignete Veranstaltungen vorschlagen.

top 14 comments
sorted by: hot top new old
[-] [email protected] 2 points 23 hours ago

Der Turing Test umfasst normalerweise ein längeres Gespräch mit dem zu testenden Subjekt, und nicht nur ein paar Kommentare. In dem Fall wird ziemlich schnell klar, dass LLMs nicht wie Menschen reden.

Das angesprochene Problem bleibt dennoch. Bei einfachen Kommentaren im Internet ist es nahezu unmöglich zu prüfen, ob der Verfasser ein Mensch ist. Zertifikate können auch von Maschinen genutzt werden, da sehe ich noch nicht die Lösung.

[-] [email protected] 8 points 1 day ago* (last edited 1 day ago)

Das löst aber nicht das Problem, dass Menschen dann diese kryptografische Identität nutzen können um damit AI Slop im Fediverse zu verbreiten. Und schlimmer noch, die Leser:innen könnten sich in falscher Sicherheit wiegen und denken es wäre irgenwie sichergestellt es wäre Text von einem Menschen, weil irgendein grüner Haken etwas verspricht, was er vielleicht nicht halten kann.

Und wenn, dann muss man auch darauf achten, dass diese technischen Maßnahmen so designed sind, dass nicht die Anonymität und Egalität im Fediverse abgeschafft wird. (Und es zentralisiert eine Menge Macht, sollte eine Person oder Organisation Zutrittskarten zum Fediverse ausstellen.)

Ich halte das für eine diskussionswürdige Idee, aber schwer bis unmöglich umzusetzen.

(Und ich würde mal bestehende Ansätze in die Diskussion einwerfen: PGP Keysigning Parties und cacert.org)

[-] [email protected] 2 points 1 day ago

Treff mich persönlich und du kannst dir sicher sein, dass ich das bin, weil ich den Schund nicht nutze.

[-] [email protected] 3 points 1 day ago* (last edited 1 day ago)

Ich denke dafür brauchen wir kein persönliches Treffen. Solange das kein arglistiger Versuch ist, so wie die Forscher, die KI-betriebene Manipulation auf Reddit ausprobiert haben, kann ich den Leuten das oft auf die Nase zusagen. Irgendwie gibt es hier eine Menge Leugner und Fanboys und die sind meist recht gut zu durchschauen. Und KI Kommentare hab ich hier auch schon gesehen, aber ich denke nicht, dass es aktuell eine große Bot-Welle gibt. Zumindest nicht in der Art. Simple Spam-Bots sieht man ja regelmäßig, aber dagegen sind wohl andere Werkzeuge angesagt. Und das hat auch in erster Linie (noch) nichts mit KI zu tun.

[-] [email protected] 5 points 1 day ago* (last edited 1 day ago)

Kurzer Rant: Hatte der CCC nicht, vor nicht allzu langer Zeit, dargelegt, dass diese Bot Armee Theorien eher irrelevant sind. Imho ist das Selbsttäuschung der linksorientierten Twitter-Bubble, weil man sich nicht eingestehen will, dass man den Kulturkampf gegen irgendwelche Rentner mit zu viel Zeit und zu wenig in der Birne verliert. Mittlerweile verliert man halt zusätzlich auch noch gegen Schüler mit zu wenig Selbstbewusstsein.

[-] [email protected] 1 points 1 day ago

Hatte der CCC nicht, vor nicht allzu langer Zeit, dargelegt, dass diese Bot Armee Theorien eher irrelevant sind.

Ich wüsste gern mehr. War das was Schriftliches oder ein Vortrag?

Einer von denen hier?

https://media.ccc.de/v/rc3-2021-chaoszone-297-the-rise-and-fall

https://media.ccc.de/v/34c3-9268-social_bots_fake_news_und_filterblasen

[-] [email protected] 2 points 1 day ago* (last edited 1 day ago)
[-] [email protected] 1 points 6 hours ago
[-] [email protected] 6 points 1 day ago

Schlag mal das Prinzip der Cryptoparties nach

[-] [email protected] 5 points 1 day ago* (last edited 1 day ago)

Was, wenn diese Leute dann mit dieser Identität selbst Bots (bzw. einen Bot, ist ja schlimm genug) laufen lassen? Beim CCC wird ja vermutlich keine große Identitäts- und Gesinnungskontrolle gemacht, bevor die Karten verteilt werden. Das hilft natürlich gegen eine Schwemme an Bots, aber hier sind ja so wenige regelmäßige Beitrags- und Kommentarersteller, dass schon ein Dutzend Bot-Accounts sehr viel kaputtmachen können, besonders wenn die dann alle als "beim CCC als echte Menschen zertifiziert" dargestellt werden.

[-] [email protected] 4 points 1 day ago

Naja, dann machst du halt eine verhältnismäßig schwindend geringe Menge an Menschen authentisch, aber der Rest bleibt ungewiss. Das halte ich nicht für sinnvoll.

Leider hab ich auch keine Idee, wie man das löst, das Problem ist eben langfristig nicht bijektiv, sprich: es gibt keine verlässliche Möglichkeit, Bot-Content von durch Menschen erstellte Inhalte zu unterscheiden.

Was bei mir die Frage aufwirft: ist nicht vielleicht Social Media selbst eher in Frage zu stellen? Braucht die Gesellschaft ein zentrales Medium, in dem artifizielle Individuen die Massen persönlich erreichen? Ironischerweise wäre das Problem im Web 1 kleiner gewesen, weil dort die Quellen selbst authentischer waren, es mehr um Inhalte ging und weniger um Menschen. Aber dahin kommen wir wohl nie wieder zurück, infolgedessen habe ich keinen Gegenvorschlag.

[-] [email protected] 1 points 1 day ago* (last edited 1 day ago)

Ich hätte ein paar Ideen anzubieten. "Watermarking" gesetzlich vorschreiben für KI-Dienste. Das kann man zwar letztendlich auch umgehen, aber damit hätten wir locker den Großteil des Problems gelöst, wenn aller Text der aus den APIs der großen kommerziellen Dienste kommt, ein klares Wasserzeichen tragen würde. Damit könnte man das ganz einfach erkennen, und der Großteil an KI-Content wird in den Rechenfarmen von sehr wenigen sehr großen Firmen generiert.

Und ja, Social Media ist ein großes Problem. Zumindest in meinen Augen. Es ist zum großen Teil verantwortlich für die Spaltung der Gesellschaft, Filterbubbles, Falschinformation und Fremdbestimmtheit, da die Ausspielung der "Wahrheit" sowieso seit vielen Jahren von den Algorithmen gesteuert wird. Zumindest bin ich deshalb hier und nicht auf TikTok.

[-] [email protected] 1 points 1 day ago
[-] [email protected] 1 points 1 day ago

Versuchst du mich gerade zu hacken?

this post was submitted on 10 Jun 2025
8 points (90.0% liked)

Netzkultur / Netzpolitik

1065 readers
133 users here now

Alles rund um das Internet. Gerne auch die politische Seite zum Thema


Als Nachfolger für [email protected]


Wir sehen uns als einen selbstbestimmten Raum, außerhalb der Kontrolle kommerzieller Tech-Unternehmen.

Netiquette wird vorausgesetzt. Gepflegt wird ein respektvoller Umgang - ohne Hass, Hetze, Diskriminierung.

Die Regeln von feddit.org gelten.


Das Bild im Banner und Icon: Public Domain generated with Midjourney gefunden auf netzpolitik.org


founded 11 months ago
MODERATORS