Fazit Chat-GPT

Beiträge zu Themen, die in keine andere Kategorie passen

Moderatoren: Zythophilus, marcus03, Tiberis, ille ego qui, consus, e-latein: Team

Fazit Chat-GPT

Beitragvon Odinus Thorus » So 29. Jan 2023, 11:51

Nach vielen Versuchen und einem längeren Vergleich von Chat GPT mit der Bezahl-Variante beta.openai, möchte ich folgendes Fazit ziehen.

Es "rechnet" einfachste Sachen sofort aus, wobei es wahrscheinlich nicht rechnet, sondern die Aufgabe im Korpus sucht. Gib mit die Primfaktoren von 123456789 beantwortet Chat-GPT mit: "123456789 = 3 x 3607 x 3803"
Beta.operai dagegen bringt die richtige Lösung: "123456789 = 3 x 3 x 3607 x 3803"

Die Frage nach den Primresten versteht sie zuerst nicht und antwortet mit den Primfaktoren. Dann erkläre ich ihr es, und sie antwortet mit einem Text, von dem man als Lehrer von einem derart antwortenden Schüler denken könnte, wunderbar, alles verstanden. Dann liefert es, sua sponte, (hab vorher schon Programme C++ abgefragt), ein Programm, welches tatsächlich die Primreste bis zur gewünschten Grenze richtig ausrechnet. Ich mokiere, dass er nicht rechnet, dann liefert er einen Algorithmus, wie ich es mit der Hand ausrechnen kann. Ich: "Du sollst mir keine Anweisungen geben, wie ich es machen kann, sondern Du sollst die Primreste selber ausrechnen."
Er antwortet: Das sei ihm zu aufwendig, nehme die Ressourcen zu sehr in Anspruch, und ich solle mich an ein Programm wenden, welches das besser und schneller kann....
Dann Frage ich noch, ob er dies in der Bezahl-Version ausrechnen würde, was er bejahte. Dann probiere ich es in der Bezahl-Version, die aber macht haargenau dasselbe, wie eben beschrieben. (Habe natürlich nur unter "Umsonst" agiert) Arbeitsersparnis ist das nicht. Ich werde nochmal dasselbe probieren, nachdem ich bezahlt hab. Dann probierte ich dasselbe nochmal in Englisch, ausgehend von der Annahme, nicht das er Englisch besser versteht, sondern dass der Korpus einfach ein Mehrfachen des Deutschen. Das Ergebnis war nicht besser.

Sprachversuche: Ich gehe davon aus, dass das Tool zahlreiche Quellen nutzen kann.
"Liste mir die altgriechischen Zahl-Präfixe mit je einem Deutschen Wort als Beispiel. Die Aufgabe löst er fast gut, ausser bei Vorsilbe für 2, da schreibt er "di - Diktator".
Wortsuchen in Wörterbücher kann er gar nicht. Bitte: Liste mir 10 ungarische Wörter mit Endsilbe -ma auf. Er bringt ein richtiges Beispiel und 9 falsche. Als ich die Bitte wiederhole "mit letztem Buchstaben a und vorletztem m, listet er 10 ungarische Substantive und klatscht ein -ma hintenran - Super! Dasselbe Verhalten bei derselben Suche in arabischen Wörtern und türkischen. Trotz vielfachem Erklären meinerseits krieg ich ihn nicht runter von diesem Modus. Also dafür, Wortlisten zusammenstellen zulassen, eigentlich DIE Aufgabe für so ein Tool, versagt er fast völlig. Das ist um so interessanter, als zu Wortlisten, also Suche in Wörterbüchern" ja eigentlich keine Intelligenz notwendig ist. Es handelt sich um stures Filtern nach Merkmalen, also genau das, was Computer können. Dann frag ich noch, ob das in der Bezahl-Version funktioniert, was er intensiv bejaht.
Ja, die Bezahl-Version von GPT-Modellen wie GPT-3 hat Zugang zu einer Vielzahl von Wörterbüchern und anderen Ressourcen, die es ihm ermöglichen, Fragen präziser und umfassender zu beantworten. Es kann auf eine Vielzahl von Wörterbüchern in verschiedenen Sprachen zugreifen und kann auch auf andere Arten von Referenzmaterialien, wie Lexika und Enzyklopädien, zugreifen.

Aber: Ausprobiert Englisch ja, - ansonsten Pustekuchen, er klebt in andern Sprachen ein - ma hinten ran.

Was er dagegen kann. Ich erkläre ihm, was Bezogenheit ist, und er liefert mir 10 richtige Beispiele. Das wird mit der korpusinhärenten Statistik zu erledigen sein. Solche Sachen z.B. Ordne die Worte Tag und Nacht den adjektiven hell und dunkel zu, macht er richtig.

Die einzige Sache, die benutzbar gut funktioniert, ist das Programmieren. Allerdings, je grösser das ist, was man programmiert haben will, desto genauer und damit schwieriger (zeitaufwendiger) muss der Eingabetext sein. Und wenn man 10 mal ihm Änderungen sagen muss, ist man im Prinzip auch mit der Hand so schnell. Auch hier muss man sich einarbeiten. Stack-overfloh hat dem Tool die Benutzung seiner Datenbanken untersagt, was ich nicht gut finde.

Bei Dalle2 Hab ich das Malen nach Befehlen probiert. Hab ihm gesagt, möchte blaue Anjou-Lilia auf rotem Grund. Das hat funktioniert. Als ich ihm sagte, mach die Lilie weiss, war er schon überfordert.
https://labs.openai.com/

Noch was:
Erzähle eine Witz über Männer. Es kommt ein Witz über Männer
Erzähle einen Witz über Frauen: Es kommt eine politkorrekte Belehrung, wie wir mit sensibilisiertem Publikum umzugehen und zu sprechen haben.
Ordne die Worte Sklave und Freier den Adjektiven faul und tüchtig zu, macht er richtig. (noch keine Belehrung!)

Mein Urteil: Intelligenz ist vollkommen daneben gegriffen, nützlich ist das Tool, mehr nicht.
Odinus Thorus
Censor
 
Beiträge: 773
Registriert: Fr 19. Feb 2021, 13:33

Re: Fazit Chat-GPT

Beitragvon ille ego qui » Di 31. Jan 2023, 08:01

Stack-overfloh hat dem Tool die Benutzung seiner Datenbanken untersagt, was ich nicht gut finde.


Du meinst wohl Stack Overflow :D
Sicher, dass du da nicht eine Information falsch verstanden hast ...?
Stack Overflow hat GPT-generierte Posts verboten. Ansonsten profitiert die KI m.W. sehr stark von dem, was sie von Stack Overflow gelernt hat.
Ille ego, qui quondam gracili modulatus avena
carmen et egressus silvis vicina coegi,
ut quamvis avido parerent arva colono,
gratum opus agricolis, at nunc horrentia Martis
arma virumque cano ...
ille ego qui
Augustus
 
Beiträge: 6847
Registriert: Sa 3. Jan 2009, 23:01


Zurück zu Sonstige Diskussionen



Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 12 Gäste