streaming
LLM이 전체 응답이 완성될 때까지 기다리지 않고 생성되는 대로 실시간으로 텍스트를 클라이언트에 전달하는 방식이다. 사용자 경험을 개선하지만 데이터 양이 많으면 전체 전송 시간이 길어진다.