Merge pull request 'Minor teweaking' (#8) from reworking-the-text-a-bit into main
All checks were successful
Latex Build / LatexBuild (push) Successful in 1m32s
All checks were successful
Latex Build / LatexBuild (push) Successful in 1m32s
Reviewed-on: #8
This commit is contained in:
commit
c698eb4518
@ -220,12 +220,12 @@ ddef solution():
|
||||
\subsection{Abstraktes Denken}
|
||||
|
||||
In diesem Abschnitt wurden verschiedene Probleme gelöst, die sich auf die räumliche Beziehung und Attribute von Objekten beziehen.
|
||||
Ein Beispiel dafür sind Probleme wie: "Ein grauer Esel, ein brauner Hund, eine graue Katze und ein roter Hahn stehen aufeinander.
|
||||
Welche Farbe hat das Tier unter dem Hund?" Des Weiteren wurden Aufgaben zu verschobenen und gefilterten Daten bearbeitet.
|
||||
Ein Beispiel dafür sind Probleme wie: „Ein grauer Esel, ein brauner Hund, eine graue Katze und ein roter Hahn stehen aufeinander.
|
||||
Welche Farbe hat das Tier unter dem Hund?“ Des Weiteren wurden Aufgaben zu verschobenen und gefilterten Daten bearbeitet.
|
||||
Im Beispiel gibt es tabellarische Daten über Pinguine, die nach Attributen gefiltert und anschließend gezählt werden müssen.
|
||||
Dies wird anhand eines Beispieldatensatzes über Pinguine demonstriert.
|
||||
Zuletzt wurden Probleme bezüglich des Verständnisses von Datum und Zeitabständen behandelt, wie zum Beispiel: "Peters Reise sollte 5 Stunden dauern.
|
||||
Er hat aber doppelt so lange gebraucht wie geplant. Wenn er um 23 Uhr angekommen ist, wann wollte er ankommen?"
|
||||
Zuletzt wurden Probleme bezüglich des Verständnisses von Datum und Zeitabständen behandelt, wie zum Beispiel: „Peters Reise sollte 5 Stunden dauern.
|
||||
Er hat aber doppelt so lange gebraucht wie geplant. Wenn er um 23 Uhr angekommen ist, wann wollte er ankommen?“
|
||||
|
||||
Für alle drei Problemstellungen gibt es jeweils separate Prompts im Stil von Codebeispiel \ref{list:math-prompt-example}.
|
||||
|
||||
@ -414,7 +414,7 @@ Es scheint, dass dort weniger Wert auf die Gestaltung von Prompts gelegt wird un
|
||||
aussagekräftigen Datensatz GSM-HARD gezogen werden, stattdessen werden andere Datensätze verwendet.
|
||||
Dies macht die Vergleichbarkeit schwierig.
|
||||
|
||||
Neue Techniken wie die "Automatic Model Selection with Large Language Models for Reasoning" kombinieren CoT und PAL und
|
||||
Neue Techniken wie die „Automatic Model Selection with Large Language Models for Reasoning“ kombinieren CoT und PAL und
|
||||
überlassen die Entscheidung über die Korrektheit beider Ergebnisse einem LLM,
|
||||
wodurch die Qualität der Ergebnisse für GSM8K auf $96,5\%$ gesteigert werden konnte, eine Verbesserung um $34\%$~\cite{zhao2023automatic}.
|
||||
|
||||
@ -427,7 +427,7 @@ Eine vergleichbare Integration von Programmiersprachen findet in Tools wie Binde
|
||||
Moderne Python-Libraries wie PandasAI~\cite{Venturi} setzen diesen Ansatz ein,
|
||||
um Datenabfragen und -operationen zu bearbeiten, und gehen dabei über Zero-shot-Prompts vor.
|
||||
|
||||
Alternative Ansätze wie "Automatic Multi-Step Reasoning and Tool-Use for Large Language Models"~\cite{paranjape2023art}
|
||||
Alternative Ansätze wie „Automatic Multi-Step Reasoning and Tool-Use for Large Language Models“~\cite{paranjape2023art}
|
||||
frieren das LLM während der Codeausführung ein und fügen die Ergebnisse direkt in den Text ein,
|
||||
bevor die Ausführung des LLMs basierend auf diesen Ergebnissen fortgesetzt wird.
|
||||
|
||||
@ -461,6 +461,7 @@ Neben den Wirklich beeindruckenden ergebnissen die PAL vorweisen kann ist aber b
|
||||
welche unabhängig voneinander in Verschiedenen Tools vorgenomen wurde ein Zeichen davon wie Zielführen die Nutzung von PAL oder der Interpretierung
|
||||
von Python code Ausführungen zur Laufzeit ist.
|
||||
|
||||
Dabei ist aber klar zu sehen das oft weit über das Prompt-Engineering hinausgegangen wurde sondern aktuelle LLMs ohne spezielle Aufforderung interpretierbaren code generieren.
|
||||
\printbibliography
|
||||
Es wird jedoch deutlich, dass oft weit über das Prompt-Engineering hinausgegangen wird und aktuelle LLMs auch ohne spezielle Aufforderung interpretierbaren Code generieren.
|
||||
|
||||
\printbibliography\footnote{Zum Verbessern von Rechtschreibung, Grammatik und als allgemeine Korrekturinstanz wurde ChatGPT4 verwendet.}
|
||||
\end{document}
|
||||
|
Loading…
x
Reference in New Issue
Block a user