Fork me on GitHub

Public Ollama Models

Public Ollama Models 20250525

How to chat with Ollama models

Select an IP and model from the table below, then use them in this command:

# Start a conversation with a model
# Replace <IP> with an IP from the table below
# Replace <MODEL> with one of the models listed for that IP
curl -X POST http://<IP>:11434/api/chat -d '{
    "model": "<MODEL>",
    "messages": [{
        "role": "user",
        "content": "Hello, how are you?"
    }]
}'

Available Models

IP Models
123.60.64.205 llama3.2:3b-instruct-q5_K_M
deepseek-r1:1.5b
101.132.74.29 llama3.2:3b-instruct-q5_K_M
139.196.196.43 qwen3:32b
qwen3:30b-a3b
qwen2.5:72b-instruct
deepseek-r1:70b
223.166.61.66 qwen3:4b
qwen3:32b
mxbai-embed-large:latest
bge-m3:latest
nomic-embed-text:latest
qwen2.5-coder:32b
qwen2.5-coder:14b
qwen2.5:32b
qwen2.5:latest
mistral-small3.1:latest
codellama:13b
codellama:34b
codellama:70b
qwq:latest
deepseek-v2:16b
deepseek-coder-v2:latest
gemma3:12b
gemma3:latest
qwen2.5:3b
gemma3:1b
deepseek-r1:14b
deepseek-r1:32b
deepseek-r1:8b
deepseek-r1:7b
deepseek-r1:1.5b
106.75.235.214 llama3.1:8b
gemma3:27b
qwq:latest
deepseek-r1:70b
117.50.171.129 qwq:latest
qwen2.5-coder:32b
117.50.180.35 bge-m3:latest
116.232.26.17 qwen3:0.6b
qwen3:1.7b
117.50.176.34 qwen2.5:1.5b
qwen2.5:7b
qwen2.5:14b
222.64.131.253 llama3.2:3b-instruct-q5_K_M
qwen2.5:32b-instruct-q4_K_M
qwq:32b-q4_K_M
qwen2.5:32b
qwen2.5-coder:14b
sqlcoder:15b
deepseek-r1:14b
qwen2.5:14b
bge-m3:567m
qwen2.5:7b
nomic-embed-text:latest
qwen2.5:0.5b
123.60.5.218 mario:latest
llama3-backup:latest
llama3.2:latest
llama3.2:3b-instruct-q5_K_M
deepseek-r1:8b
218.1.223.134 llama3.2:3b-instruct-q5_K_M
smollm2:135m
deepseek-r1:1.5b
deepseek-r1:7b
deepseek-r1:8b
101.132.88.19 nomic-embed-text:latest
llama3.2:3b
llama3.2:1b
deepseek-r1:1.5b
114.95.209.211 nomic-embed-text:latest
qwen2.5-coder:latest
deepseek-r1:7b

Disclaimer

These Ollama model endpoints are publicly exposed interfaces found on the internet. They are listed here for informational purposes only. Please be aware that:

  • These endpoints are not maintained or controlled by us
  • The availability and stability of these services cannot be guaranteed
  • Use these services at your own risk
  • We take no responsibility for any issues or damages that may arise from using these endpoints

免责声明

本文列出的 Ollama 模型接口均来自互联网上公开暴露的端点。请注意:

  • 这些端点并非由我们维护或控制
  • 无法保证这些服务的可用性和稳定性
  • 使用这些服务需自行承担风险
  • 对于使用这些端点可能产生的任何问题或损失,我们不承担任何责任
Continue reading →

Plex Media Server

今天给大家推荐一款免费、开源的媒体播放器服务器,它允许您存储和流自己的媒体集合(如电影、电视剧、音乐、照片和家庭视频)到各种设备,例如智能手机、平板电脑、流媒体盒子和智能电视。

这款 Media Server 适用于各种操作系统,包括 Windows、macOS、Linux 和 freeBSD。它还可以安装在 NAS(网络附加存储)设备或 Raspberry Pi 上。

它是一款强大的流媒体播放器服务器,它允许您从本地存储添加媒体文件并进行流媒体化处理,使其能够在任何地方(本地局域网或者公网远程)的任何设备访问和播放。

下面就是我在家里局域网的搭建过程。

  1. 在一台 Windows 11 上安装 Media Server。下载地址是 Plex 官网
  2. 注册一个 Plex 账号,登录后会提示你安装 Plex Media Server。安装完成后,打开 Plex Media Server。
  3. 添加媒体文件夹。点击左上角的“+”号,选择要添加的媒体文件夹。Plex 会自动扫描该文件夹中的媒体文件。
  4. 设置媒体库。选择媒体类型(电影、电视剧、音乐等),并为媒体库命名。
  5. 等待 Plex 扫描媒体文件。扫描完成后,您可以在 Plex Media Server 中查看和播放媒体文件。

  1. 在其他设备上安装 Plex 客户端应用程序。Plex 客户端应用程序可在 Android、iOS、Windows、macOS 和智能电视上使用。
  2. 家里没有智能电视也没有关系,我在家里15年前Sony 电视通过外接一个Raspberry 树莓派也能搞定。

7.1 在树莓派上安装Kodi

7.2 Kodi 里安装该媒体软件的插件 (PM4K for Plex)。

这样打开这台老旧的非智能电视机,也能享受智慧的媒体生活。

Continue reading →

冬去春来

树与寒鸦:冬去春来的启示

二月的一个清晨,偶然驻足小区一棵光秃秃的树下,心生感触:这棵树是怎么熬过那严酷的寒冬? 正思索间,一只寒鸦落在了树枝上,短暂停留。它的出现,让我联想到,是否正是有了寒鸦的片留停留的作伴,才让这棵树在孤独中找到了支撑,从而挺过了寒冬?

接连数日,我记录下了这棵树的变化,从最初的孤单到逐渐焕发新生,见证了它如何在春光中复苏。

这使我不禁联想到人生亦是如此,寒来暑往,冬去春来,我们每个人都会经历低谷和高峰。在这过程中,找到支撑我们的信念至关重要,无论是家人的鼓励、朋友的支持,还是内心深处那份不灭的希望,都是我们在漫长寒冬中的寒鸦,为我们带来继续前行的力量。

正如那棵树,在最艰难的时刻找到了生存的意义,我们也应在逆境中寻找属于自己的光芒,怀抱希望,坚定地走向未来。这样,无论面对何种困难,我们都能够像这棵树一样,迎来属于自己的春天。

Continue reading →

3w

3W哪个更重要

人工智能时代,理解事物的 3W(What,How,Why)哪个更重要?最近我一直在思考这个问题。

最初触发我重新思考3W重要性以及在AI时代哪个因素更应该获取我们的关注,是前段时间看的一本书《理解和改变世界》里对3W 的描述。

该书表达在AI时代 What 不是最重要的,What 是对事物的定义和描述,但是这种定义和描述往往带有主观性,比如说情人眼里出西施。唐朝以体形丰腴为美,而现代以婀娜多姿者称为美人。再比如当西游记里的八戒被称为妖怪的时候,在而是观看的孩子眼里就是头可爱的猪而已。

如果说对How的上述表达我还能理解,该书对How 和 Why的重要性解读却让我陷入纠结。

首先他认为 Why 不重要,该书对Why的描述是Why 定义的是动机或者意义,而原因有时候会变。 比如为什么中国80年代要计划生育?为什么现在又放开计划生育?这些问题的答案会随着时代、政策和与当前的社会、人口老龄化的环境,经济背景相的变化而变化。

其次本书认为搞清楚How最重要,强调实践和掌握应用解决方案。

这本书让我深深地Lost了:

当我们人人对概念的本质进行深入思考时,我们的实践仅够学习应用解决方案(How),我们的时间仅够思考“如何”,而没有时间问及“为何”。

真的Why 不再重要了吗?

当我重新梳理书中关于Why的示例展开来时,我发现有两种为什么(why): 当说为什么迟到,给出的答案是一种理由,这个理由也会变化;当问为什么中国80年代要计划生育时,为什么现在又放开计划生育,给出的答案也会随着时代不同而有所变化。 而当我们问为什么三角形2边之和大于第三边,为什么直角三角形两边平方等于斜边平方时,答案确是可证明。

这两种Why 有什么区别呢?

当我带着这个问题问了LLM模型 Meta Llama 3.3 70B Instruct Turbo 后,给出的答案让我茅塞顿开。

我终于明白在AI时代,Why 还是最重要。不过这里的Why 指的是本质性为什么。新的时代浪潮下,我希望能够珍惜每一天,更加深入地探求和理解本质性为什么,寻找事物的真谛。

Continue reading →

浦东博物馆

浦东博物馆东馆半日游

2025/3/1 自驾到浦东博物馆东馆,导航到花木时光里停车场(杨高南路出入口) ,该停车场位于商场B2层,里面有1800个车位,下午两点抵达停车场,停车非常方便。停好车,车库里就有路牌指引电梯抵达浦东博物馆东馆入口。车库距离博物馆东馆入口非常近,大约也就300-400m的距离。

博物馆场馆内部非常大,我们只走马观花了书画馆还有陶瓷馆。

书画馆里的明朝上海松江人沈度的一副字引起了我的兴趣:

陆子方格言 留有余不尽之禄以归朝廷; 留有余不尽之巧以归造化; 留有余不尽之福以遗子孙。

古代文人的思想格局里,总是把家国天下,苍生,子孙后代放在心中。而现在人,特别是我们的父辈,似乎还受到这些思想的影响。舍不得花舍不得用,勤俭节约,辛辛苦苦,活到老,干到老,口口声声想着自己的能够留下多少财产给后辈子孙。当然年轻的一辈,也有一些新思潮在涌动,比如人首先要为自己活着,自己要享受生活,不当韭菜和牛马。也说不出是后辈前卫先进,还是前辈古板守旧。

陶瓷馆里的清代青花镂空果盘甚是精致,几百年前的东西,放到现在也非常的有设计感和观赏感。

走累了,5点从博物馆出来,花木时光里吃的地方不少,吃饱喝足,回家!

Continue reading →

All Tags

mindset

devops

book

ci

communication

jenkins

自媒体

hometown

geek life

cloud

ai