Neuigkeiten:

ZUR INFORMATION:

Das Forum wurde auf die aktuelle Version 2.1.6 von SMF aktualisiert. Es sollte soweit alles laufen, bei Problemen bitten wir um Nachsicht und eine kurze Information.

Wer "vergeblich" auf Mails des Forums wartet (Registrierung bestätigen/Passwort zurücksetzen), sollte bitte in den Spam-Ordner seines Mailpostfachs schauen. Wenn eine Mail im Spam-Ordner liegt, bitte als "Kein Spam" markieren, damit wird allen geholfen.

AUS AKTUELLEM ANLASS:

In letzter Zeit häufen sich in Beiträgen identifizierbare Informationen. Es werden Standorte, Dienstposten, Dienstpostennummern und andere detailierte Beschreibungen angegeben. Denkt bitte an OPSec - und veröffentlicht nur das, was Allgemein zugänglich ist - wir werden darauf achten und gegebenenfalls auch löschen


Antworten

Einschränkungen: 10 pro Beitrag (10 verbleibend), maximale Gesamtgröße 8 MB, maximale Individualgröße 8 MB
Deaktiviere die Dateianhänge die gelöscht werden sollen
Klicke hier oder ziehe Dateien hierher, um sie anzuhängen.
Erweiterte Optionen...
Verifizierung:
Bitte lasse dieses Feld leer:
Gib die Buchstaben aus dem Bild ein
Buchstaben anhören / Neues Bild laden

Gib die Buchstaben aus dem Bild ein:
Wie heisst der Verteidigungsminister mit Vornamen:
Wie heißen die "Land"streitkräfte Deutschlands?:
Wie heißen die "Luft"streitkräfte Deutschlands?:
Shortcuts: mit Alt+S Beitrag schreiben oder Alt+P für Vorschau

Zusammenfassung

Autor Rekrut84
 - Heute um 12:11:43
Zitat von: Bumblebee am 17. Juli 2025, 17:19:08
Zitat von: alpha_de am 17. Juli 2025, 14:56:34
Zitat von: schlammtreiber am 17. Juli 2025, 11:52:31"Halluzinationen". Ja, das ist ein Problem. Der Informationsanteil von KI ist derzeit noch etwa so unzuverlässig wie wikipedia in den frühen Jahren.

Das wird sich aber legen, denke ich mal.

Das sehe ich bei LLM nicht so, LLM generieren Inhalte auf der Basis von Wahrscheinlichkeiten. Konkrete Urteile, Az, Erlasse, usw. lassen sich wahrscheinlichkeitsbasiert aber nicht erzeugen. Es gibt sie oder es gibt sie nicht. LLM sind ein Tool, das ohne verantwortlichen Nutzer nicht auskommt.

Das würde ich noch einen Schritt weiter abstrahieren: LLM erzeugen Antworten, die den Nutzer wahrscheinlich zufrieden stellen.
Das einzige, was die Dinger können, ist Korrelation.

Eine kausal korrekte Antwort zu erzeugen ist gar nicht das Ziel - Kausalität kann das Ding nämlich nicht.

Ich nutze LLMs selten und rein privat. Dann aber in der Form, dass ich den Inhalt vorgebe und einen "netteren" Text erzeugen lasse.

Das ist so nicht richtig.
In früheren Version mag dies der Fall gewesen sein.

Die aktuellen 4. Versionen sind da anders.
Zumal es je nach Anwendungsfall auch spezialisierte Versionen gibt.

Im Bereich Programmierung ist es schon sehr gut und nützlich, auch bei komplexen Aufgaben.

In der juristischen Analyse ebenso beeindruckend.

Ich nutze es schon recht oft, für so ziemlich alle Anwendungsfälle.
Autor Ali1896
 - 17. Juli 2025, 19:43:29
Zitat von: Bumblebee am 17. Juli 2025, 17:19:08Ich nutze LLMs selten und rein privat. Dann aber in der Form, dass ich den Inhalt vorgebe und einen "netteren" Text erzeugen lasse.
Und dafür ist es prima:
Ich bekomme eine Mail einer Kollegin, die (Kollegin und Mail) mich sehr nervt.

Mein Gedanke: ,, ,,Du dumme Nudel, mich nervt an deiner Mail einfach alles. Ich lese den Quatsch, aber es ist mir sch***egal!"

Dann sage ich Chat GPT: ,,Formuliere daraus bitte eine freundliche, sachliche Mail an die Kollegin"

,, Gern, hier ist eine sachliche und professionelle Version deines Satzes:



Betreff: Rückmeldung zu deiner Mail

Liebe [Name der Kollegin],

vielen Dank für deine Mail. Ich habe sie zur Kenntnis genommen und möchte dir ehrlich sagen, dass ich mich mit einigen Inhalten schwer tue. Ich werde deine Anmerkungen im weiteren Verlauf berücksichtigen, sehe aber aktuell keinen konkreten Handlungsbedarf von meiner Seite.

Viele Grüße
[Dein Name]



Wenn du möchtest, kann ich den Ton noch etwas anpassen—je nachdem, ob es eher distanziert, verbindlich oder konstruktiv wirken soll."

Und das passt dann meistens.



Autor Bumblebee
 - 17. Juli 2025, 17:19:08
Zitat von: alpha_de am 17. Juli 2025, 14:56:34
Zitat von: schlammtreiber am 17. Juli 2025, 11:52:31"Halluzinationen". Ja, das ist ein Problem. Der Informationsanteil von KI ist derzeit noch etwa so unzuverlässig wie wikipedia in den frühen Jahren.

Das wird sich aber legen, denke ich mal.

Das sehe ich bei LLM nicht so, LLM generieren Inhalte auf der Basis von Wahrscheinlichkeiten. Konkrete Urteile, Az, Erlasse, usw. lassen sich wahrscheinlichkeitsbasiert aber nicht erzeugen. Es gibt sie oder es gibt sie nicht. LLM sind ein Tool, das ohne verantwortlichen Nutzer nicht auskommt.

Das würde ich noch einen Schritt weiter abstrahieren: LLM erzeugen Antworten, die den Nutzer wahrscheinlich zufrieden stellen.
Das einzige, was die Dinger können, ist Korrelation.

Eine kausal korrekte Antwort zu erzeugen ist gar nicht das Ziel - Kausalität kann das Ding nämlich nicht.

Ich nutze LLMs selten und rein privat. Dann aber in der Form, dass ich den Inhalt vorgebe und einen "netteren" Text erzeugen lasse.
Autor alpha_de
 - 17. Juli 2025, 14:56:34


Zitat von: schlammtreiber am 17. Juli 2025, 11:52:31"Halluzinationen". Ja, das ist ein Problem. Der Informationsanteil von KI ist derzeit noch etwa so unzuverlässig wie wikipedia in den frühen Jahren.

Das wird sich aber legen, denke ich mal.

Das sehe ich bei LLM nicht so, LLM generieren Inhalte auf der Basis von Wahrscheinlichkeiten. Konkrete Urteile, Az, Erlasse, usw. lassen sich wahrscheinlichkeitsbasiert aber nicht erzeugen. Es gibt sie oder es gibt sie nicht. LLM sind ein Tool, das ohne verantwortlichen Nutzer nicht auskommt.
Autor Ralf
 - 17. Juli 2025, 14:27:36
ZitatDas wird sich aber legen, denke ich mal.
Nur, wenn wir die Möglichkeit offen lassen, sie auch lernen zu lassen. Wird das maßgeblich eingeschränkt, sind die Ergebnisse auch eingeschränkt.
Autor schlammtreiber
 - 17. Juli 2025, 11:52:31
Zitat von: Ali1896 am 16. Juli 2025, 16:09:32Manchmal ist es aber auch mit ChatGPT etwas heikel: Er denkt sich gern etwas aus. Einmal hat er mir bei einer Trauerkarte ein angebliches Bibelzitat vorgeschlagen, das ich in keiner Lutherbibel gefunden habe. Und für die Arbeit wurde mir ein Erlass genannt, den es gar nicht gibt. Seitdem kontrolliere ich solche Dinge immer doppelt.


"Halluzinationen". Ja, das ist ein Problem. Der Informationsanteil von KI ist derzeit noch etwa so unzuverlässig wie wikipedia in den frühen Jahren.

Das wird sich aber legen, denke ich mal.
Autor Ali1896
 - 16. Juli 2025, 23:30:01
Das hatte ich mir fast gedacht.
Giftes denn ein BW Modell?

Und: wie sieht es im privaten aus?
Autor alpha_de
 - 16. Juli 2025, 20:26:14
Die Nutzung von öffentlich nutzbaren LLM zu dienstlichen Zwecken ist verboten. Das würde zu einem unkontrollierbaren Datenabfluss führen.
Autor Ali1896
 - 16. Juli 2025, 16:09:32
Moin,

Mich würde mal interessieren, wie ihr das Thema KI seht: Nutzt ihr eigentlich ein LLM, also ein KI-Sprachmodell wie ChatGPT oder etwas Ähnliches? Und wenn ja – macht ihr das dienstlich (sofern es überhaupt erlaubt ist) oder nur privat? Mich interessiert das auch, weil ich mich frage, wie weit die Bundeswehr da ist. Nutzt man sowas dort schon oder ist das eher noch Zukunftsmusik?

Ich selbst nutze ChatGPT in der kostenlosen Version recht regelmäßig. Beruflich – ich bin Lehrer – hilft es mir vor allem, Elternbriefe oder Mails an Kolleginnen klarer und höflicher zu formulieren. Außerdem nutze ich es, um Arbeitsblätter sprachlich zu vereinfachen, zum Beispiel für Kinder mit Fluchterfahrung oder Deutsch als Zweitsprache. Das spart Zeit und ist oft eine gute Grundlage, die ich dann noch individuell anpasse.

Privat nutze ich es eher, um Texte glattzuziehen, also Briefe oder Beiträge für Foren und Ähnliches, und manchmal hole ich mir Tipps für kleinere DIY-Projekte oder stelle kurze Nachfragen zu ganz unterschiedlichen Themen.

Ich habe auch schon andere KI-Tools getestet, zum Beispiel Microsofts Copilot. Den fand ich allerdings schwächer als ChatGPT – die Vorschläge passten oft nicht so gut.

Manchmal ist es aber auch mit ChatGPT etwas heikel: Er denkt sich gern etwas aus. Einmal hat er mir bei einer Trauerkarte ein angebliches Bibelzitat vorgeschlagen, das ich in keiner Lutherbibel gefunden habe. Und für die Arbeit wurde mir ein Erlass genannt, den es gar nicht gibt. Seitdem kontrolliere ich solche Dinge immer doppelt.

Bildbearbeitung finde ich bisher eher schwierig, das liegt aber sicher auch daran, dass ich zu geizig bin, für die Plus-Version zu bezahlen.

Mich würde interessieren, wie ihr das seht: Wo nutzt ihr solche Tools, wo zieht ihr eine Grenze? Und welche Risiken seht ihr? Datenschutz ist für mich natürlich ein Thema, und ich denke inzwischen auch über den ökologischen Fußabdruck nach – der Energieverbrauch von KI ist ja nicht ohne. Und ein bisschen mulmig wird mir schon, wenn ich daran denke, dass so eine KI irgendwann mit Cyberdyne Systems zusammenarbeiten könnte – wir wissen ja alle, was dann kommen würde.