this post was submitted on 12 Nov 2024
36 points (100.0% liked)
DACH - Deutschsprachige Community für Deutschland, Österreich, Schweiz
2021 readers
433 users here now
Das Sammelbecken auf feddit.org für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.
Ursprünglich wurde diese Community auf feddit.de gegründet. Nachdem feddit.de mit immer mehr IT-Problemen kämpft und die Admins nicht verfügbar sind, hat ein Teil der Community beschlossen einen Umzug auf eine neue Instanz unter dem Dach der Fediverse Foundation durchzuführen.
Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:
Eine ausführliche Sidebar mit den Serverregeln usw. findet ihr auf der Startseite von feddit.org
___
founded 4 months ago
MODERATORS
you are viewing a single comment's thread
view the rest of the comments
view the rest of the comments
Solange noch drübergelesen wird, habe ich grundsätzlich kein Problem damit, dass Texte maschinell entstanden sind. Jedoch könnte es schnell dazu führen, dass die Seite damit überflutet wird und bald keiner mehr hinterherkommt. Also aus organisatorischen Gründen ist es dann schon sehr bedenklich. Besonders wenn ich mir ansehe, wie andere Seiten mit hundert mal mehr Ressourcen damit bereits völlig überfordert sind.
Ich bin etwas skeptisch ob ein Drüberlesen oder Prüfungsprozess ausreicht. Gerade auch weil auf Wikipedia nicht nur, oder ich nehme an nicht flächendeckend und ausreichend erfahrene und wissende, sorgfältige Freiwillige mitarbeiten dass das ausreichend sichergestellt werden könnte.
Dazu verlinke ich den EN Artikel Why AI Can Push You to Make the Wrong Decision at Work.
Wikipedia ist mir zu wichtig um dort großflächig zu experimentieren, ohne klaren Aus- oder Rückweg, wenn man befürchten muss dass beim Prüfen nur 20-40 % der Falschaussagen bemerkt werden.
Kann man vielleicht nicht so gleich setzen, aber macht mich zumindest skeptisch. Für Zuversicht bräuchte ich andere Argumentation oder Grundlagen. Text auf Fakten prüfen ist auch nicht unbedingt simpel. Ist ja jetzt vielleicht schon ein Problem.
Ein Ansatz von jemand der sich auskennt schreibt mit einer KI könnte besser sein als wir akzeptieren KI Beiträge und prüfen das. Zum Beispiel.
Interessanter könnte sein KI zum Prüfen und Melden von Verdachtsfällen zu nutzen.
Solange noch drüber gelesen wird? Die Leute generieren Abfall den sie gar nicht verstehen. Das können sie so lange lesen wie sie wollen. Erst wenn der Müll so genial klingt, dass man ihn selbst nicht mehr versteht, sind die Leute doch erst so richtig im Rausch. Es gibt keine kompetenten Personen die mit LLMs ihre Zeit verschwenden. Wenn man tatsächlich weiß was man schreiben will, dann tut man es einfach. Es ist unfassbar wie viele Leute auch mittlerweile echt glauben dieser LLM Output ist mit Fakten gleichzusetzen...
Ja, klar. Völlig undenkbar /s
KI kann ein Helfer beim schreiben sein, ist jedoch, zumindest meiner Erfahrung nach, absolut nicht in der Lage die eigene Recherche und Schreibarbeit zu ersetzen.
Mein Kommentar setzt nunmal voraus, das da jemand mit Ahnung drüber liest und einen Fachtext als Vorlage nimmt, statt ChatGPT einfach nur danach zu fragen und das erstbeste zu nehmen. Es ging mir dabei um den Grundsatz, also ob es theoretisch ein Problem sein muss und meine Antwort ist nein, es kann nützlich sein.
Ich hätte grundsätzlich erst mal nichts gegen generierte Formulierungen. Hier geht es ja nicht darum Kunstwerke zu schaffen, sondern darum, Wissen zugänglich zu machen.
Ich denke da eher in Richtung Zusammenfassungen von Fachtexten schreiben lassen über Themen, die man tatsächlich versteht. Als eine art Praktikanten-Assistent funktioniert das schon ganz gut. Denn auch wenn die Qualität oft nicht die beste ist und die Natur des Textes dem Thema manchmal nicht gerecht wird, sind die wichtigen Punkte meist alle drin und korrekt zusammengefasst.
Auf die Probleme bin ich ja auch schon eingegangen, denn Theorie und Anwendung sind hier zwei ganz verschiedene paar Schuh, wie ich bereits schilderte.
Ich glaube gencha kann nicht mit generativer AI umgehen 🤔
Geb ich dir recht! Das einzige Problem was ich auch noch sehe ist das die Texte sich alle gleich anhören und selten viel Substanz kurz zusammenfassen sondern es lang gestreckt ist was meisten bei llm generierten texten der Fall ist
Mit dem richtigen prompt kann man hier schon entgegenwirken.