Klaus Hartmann Geschrieben 2. Juli Teilen Geschrieben 2. Juli Hallo smapOne Team, derzeit ermöglicht smapOne das Senden eines Prompts via API an ein Language Model (LLM). Ich schlage vor, dass die Antworten des LLM ebenfalls direkt in der smapOne App angezeigt werden. Dies würde den Workflow erheblich verbessern, da die Nutzer nicht mehr zwischen verschiedenen Anwendungen wechseln müssen, um die Antworten der KI zu sehen und weiterzuverarbeiten. Viele Grüße Klaus 1 2 Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Manuel Rühl Geschrieben 3. Juli Teilen Geschrieben 3. Juli Das würde die Einsatzmöglichkeiten deutlich erweitern. Der Request geht aus meiner Sicht ja viel weiter: Wenn ich eine x-beliebige API anbinden kann, die mir on-the-fly eine Rückmeldung gibt, könnte man da so einiges mit zaubern. 1 2 Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Bülent Erbas Geschrieben 3. Juli Teilen Geschrieben 3. Juli Ich bin mir gerade nicht ganz sicher, ob das nicht das Ziel einer smap-App verfehlt, kompakt und übersichtlich zu sein. Klar, das unterscheidet sich von Anforderung zur Anforderung, aber wenn ich mir vorstelle wie umfangreich eine KI-Antwort sein kann, würde ich persönlich das alles nicht sehen wollen. Ehrlich gesagt, brauche ich dann bei kurzen Antworten keine KI... 😅 2 Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Empfohlene Beiträge
Bitte melde Dich an, um einen Kommentar zu hinterlassen
Du kannst nach der Anmeldung einen Kommentar hinterlassen
Jetzt anmelden