this post was submitted on 01 Jan 2024
1 points (100.0% liked)

DACH - jetzt auf feddit.org

8713 readers
1 users here now

Diese Community wird zum 01.07 auf read-only gestellt. Durch die anhäufenden IT-Probleme und der fehlende Support wechseln wir als Community auf www.feddit.org/c/dach - Ihr seid herzlich eingeladen auch dort weiter zu diskutieren!

Das Sammelbecken auf feddit für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.

Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:

Eine ausführliche Sidebar findet ihr hier: Infothread: Regeln, Feedback & sonstige Infos

Auch hier gelten die Serverregeln von https://feddit.de !

Banner: SirSamuelVimes

founded 1 year ago
MODERATORS
top 4 comments
sorted by: hot top controversial new old
[–] [email protected] -1 points 10 months ago (1 children)

Also ich würde sagen die meisten trainierten Algorithmen sind blackboxen auch für IT-experten... Ich weiß wie ein transformer funktioniert, auch vor chatgpt und ich hätte trotzdem nicht gedacht dass es so gut funktioniert. Bzw ich kann aus dem Wissen fast keinen Vorteil ziehen bei der Interaktion mit chatgpt.

Das heißt natürlich nicht, dass es nicht wichtig wäre für die Bevölkerung ein gewisses Verständnis für IT zu haben. Denn die ist sicherlich größtenteils nicht gegeben

[–] [email protected] 0 points 10 months ago (1 children)

Sie sind in soweit Blackboxen, dass selbst die Hersteller nicht sagen können, warum sie so funktionieren.

Sie können weder sagen, warum eine bestimmte Entscheidung getroffen wurde, noch können sie sagen, warum ein bestimmtes Design funktioniert. Es ist gerade sehr viel mehr Kunst als Wissenschaft.

[–] [email protected] 0 points 10 months ago (1 children)

Als jemand der mit KI arbeitet: warum eine Entscheidung getroffen wurde ist meist schon nachvollziehbar. Wir können beispielsweise die pixel hervorheben die besonders stark zur Entscheidung beigetragen haben.

Das ist dann nur ein Teil des Problems, aber man ist nicht ganz blind wie du es suggerierst

[–] [email protected] 1 points 10 months ago

Du kannst mathematisch nachvollziehen, was passiert. Aber das "Warum" dahinter eben nicht. Im Sinne von "warum werden gerade diese Pixel als Tiger erkannt?" Das sind verschiedene Arten von Warums.