Klaus Hartmann Posted July 2 Share Posted July 2 Hallo smapOne Team, derzeit ermöglicht smapOne das Senden eines Prompts via API an ein Language Model (LLM). Ich schlage vor, dass die Antworten des LLM ebenfalls direkt in der smapOne App angezeigt werden. Dies würde den Workflow erheblich verbessern, da die Nutzer nicht mehr zwischen verschiedenen Anwendungen wechseln müssen, um die Antworten der KI zu sehen und weiterzuverarbeiten. Viele Grüße Klaus 1 2 Link to comment Share on other sites More sharing options...
Manuel Rühl Posted July 3 Share Posted July 3 Das würde die Einsatzmöglichkeiten deutlich erweitern. Der Request geht aus meiner Sicht ja viel weiter: Wenn ich eine x-beliebige API anbinden kann, die mir on-the-fly eine Rückmeldung gibt, könnte man da so einiges mit zaubern. 1 2 Link to comment Share on other sites More sharing options...
Bülent Erbas Posted July 3 Share Posted July 3 Ich bin mir gerade nicht ganz sicher, ob das nicht das Ziel einer smap-App verfehlt, kompakt und übersichtlich zu sein. Klar, das unterscheidet sich von Anforderung zur Anforderung, aber wenn ich mir vorstelle wie umfangreich eine KI-Antwort sein kann, würde ich persönlich das alles nicht sehen wollen. Ehrlich gesagt, brauche ich dann bei kurzen Antworten keine KI... 😅 2 Link to comment Share on other sites More sharing options...
Recommended Posts
Please sign in to comment
You will be able to leave a comment after signing in
Sign In Now