Open WebUI에서 LM Studio 연결하기

LM Studio로 LLM 모델들을 잘 구동시키고있는데요.

로컬에서의 잘되는데 외부에서도 쓰고싶어서 Open WebUI를 연동해봤습니다.

 

 

기본적으로 Ollama, ChatGPT와 궁합도 맞지만 LM Studio오 API 호환이 되어서 연결이 가능합니다.

 

LM Studio에서는 Server Port와 Serve on Local 를 켜주시면되고

 

image.png.jpg

 

Open WebUI에서는 관리자 설정에서 연결 -> Open AI API Connections에 IP:Port로 너

 

image.png.jpg

 

그리고 우측에 설정부분에서새로고침을해보면 연결이 잘 되는지 확인가능합니다.

 

image.png.jpg

 

그리고 다시 메인화면으로 가보면 모델을 선택할 수 있습니다.

 

image.png.jpg

 

마지막 Safe mode는 뭔지모르겠지만 ㅎ..

이상태에서 reverse proxy로 연결시켜놓으면 외부에서도 접근해서 gpt처럼 사용할 수 있습니다.

 

image.png.jpg

 

 

 

————————————————–

사이트 리뉴얼중입니다~

서버(Linux, ESXi), NAS(헤놀로지, ESXi 및 IT관련 정보, 기타 등등을 공유하는 커뮤니티 SVRFORUM을 새로 만들었습니다.
많은 가입(?) 부탁드립니다~
https://svrforum.com

이전글들은 모두 상단 메뉴의 Blog 글 모음에있습니다!

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다

홈서버 IT 커뮤니티 SVRFORUM
Link