-
Notifications
You must be signed in to change notification settings - Fork 291
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
[Connectivity]已部署 ollama + UI_TARS,如何使用 #309
Comments
使用以下环境变量执行 ebay demo 代码: 得到错误: Node.js v18.20.4 |
在 url 最后配上 /v1 试试, 如果还不行,麻烦再留言给我们你的版本号。(浏览器插件的版本号在侧栏最底部。) |
环境变量: 版本号: 错误: |
同样的问题,插件版本: 试用 connectivity-test,结果: ui-tars-desktop 可以联通ollama server,但会在几次http status 200后,以http status 500 结束。 |
@st01cs 部署在本地 ollama 上的吗? connectivity-test 的问题好解决,看报错就是超时了,你把超时调大就行。代码里搜 浏览器环境的问题我们还在复现。 |
timeout调大后ollama在两个测试中返回500: Error: 500 an error was encountered while running the model: GGML_ASSERT(sections.v[0] > 0 || sections.v[1] > 0 || sections.v[2] > 0) failed ⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯[1/2]⎯ FAIL tests/connectivity.test.ts > Use Midscene wrapped OpenAI SDK > call to get json object |
前一个测试 500 是不应该的,能看到有什么错误日志么? “ Use Midscene wrapped OpenAI SDK” 这个可以不用管,VLM 模式不是 JSON 了 |
浏览器插件报 403 的问题找到了,需要启用跨域配置 OLLAMA_HOST="0.0.0.0" OLLAMA_ORIGINS="*" ollama serve |
403 的问题解决了,返回新的错误: Cannot read properties of undefined (reading 'thought') |
ollama gguf 版本的问题挺多的,看不到错误日志 |
嗯,这感觉是模型返回的问题了... 你的运行环境是什么?什么样的机器配置?我们正在沟通部署的最佳实践,看怎么能把模型的效果发挥出来 |
日志可以加上 OLLAMA_DEBUG=1 试试 |
之前的实验配置: 再找一台多个显卡的机器试一下vllm server,正在下载模型 |
OK。 顺便问一下 Android Scene 是用什么工具测试的? |
403 是如何解决的,配 ollama 所在机器的环境变量? |
是的,添加OLLAMA_ORIGINS环境变量 |
I have the same problem here. I have tried using |
@st01cs @Etherdrake @supperdsj 目前不建议使用 UI-TARS ollama 版本(该问题后续会进行优化),可以参考 https://github.com/bytedance/UI-TARS 中的说明,目前建议直接使用 vllm 部署模型 |
已测试vllm不会出现500的错误,2个4090(24G)显卡可部署7B版本。 请问Android界面怎么使用? |
I'm using VLLM to deploy the model (bytedance-research/UI-TARS-7B-DPO), but i still get the following error:
The logs from VLLM show:
My browser config is: |
你好,请问这个新的错误解决了吗? @st01cs |
Looks like you didn't choose the right model. Try to config your env in MIDSCENE_MODEL_NAME="ui-tars" but not OPENAI_MODEL_NAME="ui-tars" @KabakaWilliam |
Thanks, that got it to work. |
Android 的功能现在是使用 appium 实现的,https://github.com/web-infra-dev/midscene/tree/main/packages/web-integration/src/appium 虽然现在没有编写文档,但是大部分功能是可用的,你可以尝试跑一下 https://github.com/web-infra-dev/midscene/tree/main/packages/web-integration/tests/ai/native/appium 如果你有想法也可以给我们贡献 |
使用浏览器配置如下:
MIDSCENE_USE_VLM_UI_TARS=1
OPENAI_BASE_URL=http://***:11434/
MIDSCENE_MODEL_NAME=hf.co/bytedance-research/UI-TARS-7B-gguf:latest
OPENAI_API_KEY=111
在浏览器插件的 action 输入:
click '介绍'
得到的错误:
403 status code (no body)
Error: 403 status code (no body)
at e.generate (chrome-extension://gbldofcpkknbggpkmbdaefngejllnief/lib/popup.js:1:3090002)
at f.makeStatusError (chrome-extension://gbldofcpkknbggpkmbdaefngejllnief/lib/popup.js:1:3078477)
at f.makeRequest (chrome-extension://gbldofcpkknbggpkmbdaefngejllnief/lib/popup.js:1:3079593)
at async F (chrome-extension://gbldofcpkknbggpkmbdaefngejllnief/lib/popup.js:1:4243928)
at async __commonJS.../midscene/dist/lib/chunk-CERQVVPJ.js.e.vlmPlanning (chrome-extension://gbldofcpkknbggpkmbdaefngejllnief/lib/popup.js:1:4261672)
at async Object.executor (chrome-extension://gbldofcpkknbggpkmbdaefngejllnief/lib/popup.js:1:4319942)
at async __commonJS.../midscene/dist/lib/index.js.e.Executor.flush (chrome-extension://gbldofcpkknbggpkmbdaefngejllnief/lib/popup.js:1:4271106)
at async G.actionToGoal (chrome-extension://gbldofcpkknbggpkmbdaefngejllnief/lib/popup.js:1:4321443)
at async Y.aiAction (chrome-extension://gbldofcpkknbggpkmbdaefngejllnief/lib/popup.js:1:4326763)
at async Object.onClick (chrome-extension://gbldofcpkknbggpkmbdaefngejllnief/lib/popup.js:1:5609123)
The text was updated successfully, but these errors were encountered: