V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
findex
V2EX  ›  程序员

写了一个爬虫,把自己以往的博客都爬到本地了

  •  
  •   findex · 2022-12-01 20:31:33 +08:00 · 1556 次点击
    这是一个创建于 740 天前的主题,其中的信息可能已经有所发展或是发生改变。

    写了十几年的博客,分布在 csdn 还有 cnblogs 上。 个人主页都不如这些大站靠谱,要不就是个人服务器没续费,域名过期。

    爬虫下载个人博客下了好多内容。可是有不完美的地方,就是下载图片的时候,有的图片年久失修,外链也下不了了。针对每个页面的图片都重新下载一遍,可谓比较费事。

    有了这些博客,以后可以用 json 格式随便发到任何博客平台。例如 wordpress rpc 等。

    然后深思,你能找回以往的博客,但是能找回以往的你吗?

    3 条回复    2022-12-02 14:38:44 +08:00
    qinrui
        1
    qinrui  
       2022-12-01 20:59:30 +08:00 via iPhone
    过去的就过去啦,人生才几个十年
    vicnicLight007
        2
    vicnicLight007  
       2022-12-02 11:19:15 +08:00
    hexo ,内容永远在本地,哪里都可以弄一个站点
    zhangchongjie
        3
    zhangchongjie  
       2022-12-02 14:38:44 +08:00
    一直都是 word 分目录+密码存在本地的,这年头,啥都说不准
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   3112 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 969ms · UTC 10:44 · PVG 18:44 · LAX 02:44 · JFK 05:44
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.