博文

使用免费的甲骨文ARM服务器搭建云手机

图片
 项目地址:https://github.com/remote-android/redroid-doc # # install required kernel modules 安装内核相关依赖 apt install linux-modules-extra- ` uname -r ` modprobe binder_linux devices= " binder,hwbinder,vndbinder " modprobe ashmem_linux # # running redroid docker run -itd --rm --privileged \ --pull always \ -v ~ /data:/data \ -p 5555:5555 \ redroid/redroid:12.0.0_64only-latest 安装adb apt install android-tools-adb 安装投屏工具:https://github.com/Genymobile/scrcpy/blob/master/doc/linux.md 这里建议自己编译最新版本: 1. # for Debian/Ubuntu 安装编译环境的依赖 sudo apt install ffmpeg libsdl2-2.0-0 adb wget \ gcc git pkg-config meson ninja-build libsdl2-dev \ libavcodec-dev libavdevice-dev libavformat-dev libavutil-dev \ libswresample-dev libusb-1.0-0 libusb-1.0-0-dev ##拉取代码和编译 git clone https://github.com/Genymobile/scrcpy cd scrcpy ./install_release.sh ##看下编译完成以后 scrcpy 安装的路径,如果是下面路径,需要放到环境变量里面 which scrcpy /usr/local/bin/scrcpy 如果  /usr/lo...

免费利用腾讯云GPU+Ollama+开源模型+搭配OpenWebUI,搭建自己的本地大模型AI

图片
  Ollama简介   地址: https://github.com/ollama/ollama    Ollama是一个创新的平台,它允许用户在本地启动并运行大型语言模型。它提供了一个简单易用的内容生成接口,类似于OpenAI,但无需开发经验即可直接与模型进行交互。Ollama支持热切换模型,为用户提供了灵活性和多样性。 安装Ollama环境 进入网站并登录 https://ide.cloud.tencent.com/ 创建Ollama 模板,直接已经包含了Ollama 功能不需要在安装了  启动成功以后 确认环境已经安装成功 ollama list 查看已经安装的镜像 下载和使用大型模型 https://ollama.com/library?sort=popular 这里可以看到所有支持的模型 ollama run qwen2.5:32b  选择模型执行,这个命令下载即可 运行模型 通过 ollama run 命令,你可以运行特定的模型。例如, ollama run qwen 将启动qwen模型。 安装ngrok  内网穿透 https://dashboard.ngrok.com/login?state=1C24IvyrjGvVYIgUfKlAm3dczgwwjDQYaGDellB5h4DOe3RwkCia-4HQcCTefsWrhblSJxQiMhu34sJrk1yHnE-XS-hXLzHRRT9LpbqWOdGfMIjxaZyFP1o9ea5hQFsNyztMwqinu1rtdqvNmDrDxB_oaM1b7R6RZD-EJTQoRXBUza7hdiIk 安装完毕会给你一个类似下面的穿透地址 https://72c7-212-64-27-162.ngrok-free.app/ OpenWebUI  安装 OpenWebUI 是一个可扩展、功能丰富且用户友好的自托管WebUI,它支持完全离线操作,并兼容Ollama和OpenAI的API。这为用户提供了一个可视化的界面,使得与大型语言模型的交互更加直观和便捷。 地址: https://github.com/open-webui/open-webui?tab=readme-ov-file 安装推荐Docker 安装 ...