ZUR INFORMATION:
Das Forum wurde auf die aktuelle Version 2.1.6 von SMF aktualisiert. Es sollte soweit alles laufen, bei Problemen bitten wir um Nachsicht und eine kurze Information.
Wer "vergeblich" auf Mails des Forums wartet (Registrierung bestätigen/Passwort zurücksetzen), sollte bitte in den Spam-Ordner seines Mailpostfachs schauen. Wenn eine Mail im Spam-Ordner liegt, bitte als "Kein Spam" markieren, damit wird allen geholfen.
AUS AKTUELLEM ANLASS:
In letzter Zeit häufen sich in Beiträgen identifizierbare Informationen. Es werden Standorte, Dienstposten, Dienstpostennummern und andere detailierte Beschreibungen angegeben. Denkt bitte an OPSec - und veröffentlicht nur das, was Allgemein zugänglich ist - wir werden darauf achten und gegebenenfalls auch löschen
Zitat von: Bumblebee am 17. Juli 2025, 17:19:08Zitat von: alpha_de am 17. Juli 2025, 14:56:34Zitat von: schlammtreiber am 17. Juli 2025, 11:52:31"Halluzinationen". Ja, das ist ein Problem. Der Informationsanteil von KI ist derzeit noch etwa so unzuverlässig wie wikipedia in den frühen Jahren.
Das wird sich aber legen, denke ich mal.
Das sehe ich bei LLM nicht so, LLM generieren Inhalte auf der Basis von Wahrscheinlichkeiten. Konkrete Urteile, Az, Erlasse, usw. lassen sich wahrscheinlichkeitsbasiert aber nicht erzeugen. Es gibt sie oder es gibt sie nicht. LLM sind ein Tool, das ohne verantwortlichen Nutzer nicht auskommt.
Das würde ich noch einen Schritt weiter abstrahieren: LLM erzeugen Antworten, die den Nutzer wahrscheinlich zufrieden stellen.
Das einzige, was die Dinger können, ist Korrelation.
Eine kausal korrekte Antwort zu erzeugen ist gar nicht das Ziel - Kausalität kann das Ding nämlich nicht.
Ich nutze LLMs selten und rein privat. Dann aber in der Form, dass ich den Inhalt vorgebe und einen "netteren" Text erzeugen lasse.
Zitat von: Bumblebee am 17. Juli 2025, 17:19:08Ich nutze LLMs selten und rein privat. Dann aber in der Form, dass ich den Inhalt vorgebe und einen "netteren" Text erzeugen lasse.Und dafür ist es prima:
Zitat von: alpha_de am 17. Juli 2025, 14:56:34Zitat von: schlammtreiber am 17. Juli 2025, 11:52:31"Halluzinationen". Ja, das ist ein Problem. Der Informationsanteil von KI ist derzeit noch etwa so unzuverlässig wie wikipedia in den frühen Jahren.
Das wird sich aber legen, denke ich mal.
Das sehe ich bei LLM nicht so, LLM generieren Inhalte auf der Basis von Wahrscheinlichkeiten. Konkrete Urteile, Az, Erlasse, usw. lassen sich wahrscheinlichkeitsbasiert aber nicht erzeugen. Es gibt sie oder es gibt sie nicht. LLM sind ein Tool, das ohne verantwortlichen Nutzer nicht auskommt.
Zitat von: schlammtreiber am 17. Juli 2025, 11:52:31"Halluzinationen". Ja, das ist ein Problem. Der Informationsanteil von KI ist derzeit noch etwa so unzuverlässig wie wikipedia in den frühen Jahren.
Das wird sich aber legen, denke ich mal.
ZitatDas wird sich aber legen, denke ich mal.Nur, wenn wir die Möglichkeit offen lassen, sie auch lernen zu lassen. Wird das maßgeblich eingeschränkt, sind die Ergebnisse auch eingeschränkt.
Zitat von: Ali1896 am 16. Juli 2025, 16:09:32Manchmal ist es aber auch mit ChatGPT etwas heikel: Er denkt sich gern etwas aus. Einmal hat er mir bei einer Trauerkarte ein angebliches Bibelzitat vorgeschlagen, das ich in keiner Lutherbibel gefunden habe. Und für die Arbeit wurde mir ein Erlass genannt, den es gar nicht gibt. Seitdem kontrolliere ich solche Dinge immer doppelt.