AI
- AI와 관련된 이야기를 나누는 곳입니다
Date 26/02/21 11:26:14
Name   TEN
Subject   LLM 채팅 에이전트를 만들고 있다가 보니까,
LLM 채팅 에이전트를 만들고 있다가 보니까,

이거 굳이 채팅으로만 의사를 주고 받아야 하나 하는 생각이 들었습니다.

사용자가 UI에서 메뉴와 기능을 실행하고 켜고 끄고 만지고 - AI에이전트가 의도를 분석해서 추천하고 - 다시 사용자 액션/리액션에서 피드백을 받아 가중치를 조정하는 방식으로

채팅 하나 없이 비언어적 맥락을 쌓아도

충분히 훌륭한 UI가 나오지 않을까? 오히려 자연스럽지 않을까 하는 생각이 들었습니다.

대시보드 같은데서 뾰롱하고 관련도 높은 정보가 팝업되거나 스택에 쌓이거나,
긴급상황 같은 것들 우선순위별로 정리해서 팝업하거나
꼭 연계해서 찾아보던 정보를 자동으로 연결해주거나 하면서

사전 프로그래밍된 게 아니고 개인화되고 유연한 인포시스템 같은 게 가능하지 않나
이미 구현도 간단해서 LLM이 UI를 입력이자 툴처럼 쓰면 되는 것 아닌가!

이런게 일단은 근미래로 가기전 과도기적 인터페이스가 되지 않을까 하는 생각이 들었습니다.

혹시 이런게 이미 있나요?



1


목록