V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  musi  ›  全部回复第 2 页 / 共 98 页
回复总数  1941
1  2  3  4  5  6  7  8  9  10 ... 98  
不可能终身的,即使没有任何后端服务也不可能终身的。
就像你接了一个外包,钱货两清了,你会给他提供终身维护服务吗?一样的道理
楼上的公众号关注打赏两块钱就行了,我用他的镜像装了 15 没发现有什么问题
@livid @luckykelan #43 本来还在问题讨论范畴现在直接人生攻击了
有严重的隐私问题
8 天前
回复了 linzxwuhan 创建的主题 分享创造 我做了一个汽车自驾旅行摄影社区
如果有图的话建议在列表页放一个缩略图,摄影社区大家肯定都是希望看一些美照的,每次点进去才看到实在是太累了
9 天前
回复了 jadehare 创建的主题 分享发现 Github 发布了 GitHub Spark
别再吹开发要失业了
“以后要是能生成更复杂的程序”那 AI 就可以自己训练自己了,到时候就不是失业了
9 天前
回复了 Flourite 创建的主题 问与答 传统搜索引擎是不是即将衰败
@kunkunzhang #6 如果搜索引擎遵循 robots.txt 那是不会,如果不遵循小红书会有对应的反爬机制,如果这俩都不管用那也可以收录,比如字节之前用于训练 AI 的爬虫
笑死,自己没说清楚别人给你找了解决方案还说交流环境恶劣。。。
@songray 你 po 的内容有说明你的产品运行在什么样的网络环境和设备环境吗?只能知道是跑在 web 浏览器上的,web-llm 是不能跑在浏览器上吗?
@songray #7 那你应该用下载模型耗时太长反驳我,而不是“很难跑在浏览器里”,你不说清楚我怎么知道你对时间敏不敏感,万一你对对一次的下载时间不敏感后面加上缓存了呢?
感觉你沟通能力也不行
@songray #4 看的出来你是真不想花时间搜索
直接 google "run LLM in browser"直接就出来了 https://github.com/mlc-ai/web-llm
你是真想别人把饭喂你嘴里才吃
@songray #2 第一点你去找支持跑在浏览器里的小模型,现在已经有了。
第二点你并不需要结构化输出,你只需要提取关键字就行了
直接拿一个小语言模型判断就好了,感觉 1b 的就够了
"像 canva 可画一样"
所以你们和 canva 这个产品的区别是什么
干脆也别用电脑写代码了
直接把 ide 做到小程序里不是更方便
笑死,第一次见小程序搞开发会方便的这种言论
10 天前
回复了 liunian1004 创建的主题 iDev ios 开发,还没开始就结束了...
是这样的,你的设备和身份都被拉黑了,只能“换个人”了
是这样的,别说 java 了,我写前端也感觉写代码不好用,但是生成代码的体验 jb 家没有一个 ide 能做到
支持 op
如果能中奖就更好了
我在 poe 上用了 flux-pro-1.1 感觉还可以
1  2  3  4  5  6  7  8  9  10 ... 98  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2573 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 32ms · UTC 03:31 · PVG 11:31 · LAX 19:31 · JFK 22:31
Developed with CodeLauncher
♥ Do have faith in what you're doing.