Try Open Source
起因 “想参与到某个开源项目”这个念头最早应该可以追溯到刚加入 NyaaCat Community 的时候,发现原来之前在其他 Minecraft 服务器玩到的 RPGItem 插件 原来是开源的!并且一直有在积极维护,这也太酷了吧! 但是这个时候的我并没有编程基础,更喜欢把时间花在使用这些插件以及玩游戏上面。 第一份工作 我的第一份工作的主要职责之一就是基于一个 Django 框架的开源项目进行二次开发,在这之前我没有任何实际的 Web 后端开发经验。 但是开源社区的文档和当时的 Leader 教会了我很多 Web 相关的基础知识,直到现在都受益匪浅。 这个时候我就开始想着,我应该如何才能对帮助过我这么多的“开源社区”做一些贡献呢? 但是直到第一份工作结束,我也没有尝试对开源社区提交过一次 Issue 和 PR 。 第一次贡献 在某论坛闲逛时,发现了一个作者在推广自己开源的轻量级的 Web 文件服务器,当我尝试部署到本地时,发现缺少了依赖,于是我提交了我的第一个 Issue和PR 。 于是我开始焦急的等待,想着作者什么时候会合并呢?想着自己终于迈出了第一步。 大概三小时后,邮件提示我 Issue 和 PR 都被关闭了。 作者回复我说 注意到了这个问题,并自己修复了。 虽然是一个微不足道的修复,但是被这样关闭有一种莫名其妙的沮丧感。 第一个开源项目 其实写 ncmp 这个脚本的念头在大学时就产生了。 在某次查看私信时偶然发现获得了网易云音乐合伙人资格,刚开始还会兴致勃勃认认真真的去评分,到后面由于歌曲质量/重复操作很无聊等等原因,每天每首歌都开始评3分摆烂,想着能维持资格就行。 在第一个 PR 被拒绝后,我开始写我自己的开源项目。 参考了其他脚本的实现方式,并使用我更熟悉的 Github Actions 去实现定时任务。 于是我第一个真正意义上对其他人有用的开源项目 ncmp 就这样诞生了。 Dify 最开始了解到 Dify 是在前司研究 Agent 平台时,尝试过 Dify / Flowise / Bisheng 等项目,但是 Dify 的体验在我这里绝对是断层式的领先。无论是在 说明、文档、社区支持、UI还是代码质量上,综合体验与其他开源平台拉开了很大的差距。 所以即使 Dify 的 Lisence 有一些限制,也还是说服公司选择了 Dify 。...
饥荒服务器配置(腾讯云)
饥荒服务器配置(2025/02/15更新) 基于腾讯云轻量的饥荒服务器配置 解决启动服务器时下载Mod提示DownloadServerMods timed out with no response from Workshop...的错误。 机器配置 主机配置 系统版本:Windows 11 23H2 服务器 腾讯云轻量级服务器 配置:2C4G 存储:SSD云硬盘 70GB 流量:600GB/月(带宽:6Mbps) 镜像:Ubuntu22.04-Docker26 推荐使用Termora进行SSH连接。 Termora is a terminal emulator and SSH client for Windows, macOS and Linux. 一、下载 steamcmd 1、安装相关依赖 安装steamcmd和饥荒服务器需要用到的依赖 sudo add-apt-repository multiverse sudo dpkg --add-architecture i386 sudo apt update sudo apt install libstdc++6 libgcc1 libcurl4-gnutls-dev:i386 lib32z1 2、安装 steamcmd 在根目录下创建 Steam 文件夹 mkdir ~/Steam && cd ~/Steam 下载 steamcmd wget https://steamcdn-a....
ncmp 使用指北
本文档旨在给对于从来没有接触过GitHub Actions以及Cookies相关的网络知识的萌新提供简单易懂的网易云合伙人脚本基于GitHub Actions部署的操作方式。 准备工作 Github账号,点此注册并登录 有音乐合伙人权益的网易云音乐账号,点此登录 实操步骤 1. Fork ncmp 仓库 项目地址:https://github.com/ACAne0320/ncmp 进入ncmp仓库点击Fork(前提已登录) 创建仓库 仓库名称,可以随便填写 点击创建 2. 获取脚本所需相关参数 网易云Cookies获取 首先登录网易云音乐网页版,登录后按F12(或者鼠标右键)打开开发者模式 切换到网络页面 此时随便点击一下网页,发起请求(比如点击我的音乐) 在Network页面按照步骤操作 打开搜索框 在搜索框中搜索_csrf或者MUSIC_U 找到需要的两个参数_csrf和MUSIC_U,复制下来,后面会用到 邮箱通知设置(以QQ邮箱为例) 进入QQ邮箱->设置->账号->打开POP3/IMAP/SMTP/Exchange/CardDAV/CalDAV服务 记住该授权码,后续会用到 此授权码仅用于自己给自己发送Cookie过期提示短信,请勿暴露 3. 设置GitHub Actions Secret 在项目仓库的Settings->Security->Secrets and variables中设置Secret 然后将步骤2中获取的参数一一填写进去。 Name Secret MUSIC_U 网易云音乐 MUSIC_U CSRF 网易云音乐 csrf NOTIFY_EMAIL 你的邮箱地址(此例中为 [email protected]) EMAIL_PASSWORD 邮箱授权码(在上面步骤中获取的授权码) SMTP_SERVER smtp.qq.com(如果是qq,直接使用这个) SMTP_PORT 465(同上) 创建CSRF 创建MUSIC_U 其他参数同理填写。 4. 手动运行脚本 点击进入Actions页面 点击I understand my workflows, go ahead and enable them 进入Auto Score,点击Enable workflow启用工作流 手动运行测试一次 可以点击进去查看详细日志 如果在前面的步骤中,设置了邮件相关参数的话,当Cookie过期时,会发送邮件提醒。此时再去Sercet中更新网易云音乐的两个Cookie 即可。...
Do it for youself
前言 不知不觉2024年也过去了一大半了,公司的各种变动让我丧失了对工作的热情,学不到新的技术,没有新的需求,要做的仅仅是运营简单的机器学习项目,我时常思考这样的工作能为我带来什么?我的领导对我很好,我也很感谢他对我的培养,但是…… 鼓起勇气 在听闻需要调整薪资时,我脑袋里一片空白,之前想着公司在我最困难的时候愿意让我进去学习,而我能为公司做些什么呢?能陪伴他多久呢?现在看来,对于我本就不高的工资,在压力巨大的今天,抛去房租等日常开销,都不能随心所欲的想吃什么就吃什么了。 承诺的一年调薪两次也并没有做到,甚至还要降薪。好像是我不能接受的,我思来想去。 在收到薪资调整意向的一个月之后,我才下定决心找下一份工作。 看不到技术进步的工作、一趟一个半小时的通勤、需要调整的薪资,是压死骆驼的最后一根稻草。 努力……会有回报吗? 我不知道。 下班的路上,同事和我说: “我们是在这里干了这么久了,也不太好找下家。你不一样,趁着你还年轻,去拼一下吧。” 是啊,还年轻,是时候拼一下了。 第一次面试网易外包给我的打击太大了,我发现我好像什么都不会。于是这一个月以来,七点起床,一两点才睡觉,每天都很疲惫,下班后修改简历、背八股文、看书了解Python高级用法(Fluent Python)、了解k8s/Docker等等…… 几乎没有其他额外开销的我,居然也攒不下什么钱,勉强够下一个月的房租。 我甚至怀疑是不是我的水平只够一份月薪7500的工作?噢不……甚至还要降。 在面试了几家之后,我觉得我的水平对应的薪资远不止如此,我觉得我可以有更大的天地……如果我面试不紧张能把脑子里的知识都好好表达出来的话。 勇敢迈向未来 我开始疯狂投简历找面试的机会,我想给我自己/给我爱的人更好的生活,累点苦点也无所谓。 我从未想过在工作了这么久之后,还是在天天吃泡面,不敢多花钱,更别说攒下一笔钱了。 既然选择了,就努力的去实现它,无论结果如何。 过程永远都会让你切实地感觉到你自己的进步。 Truth the Process. 结语 希望在你迷茫的时候,找到一个目标,无论目标有多难,首先得先去做。在执行的过程中,一步一步接近自己的目标,回头来看,你会感谢那个勇于尝试的自己。
LLaMA-Factory Quickstart
项目github地址:https://github.com/hiyouga/LLaMA-Factory?tab=readme-ov-file 项目hugging face地址: 一、环境构建 1、基础虚拟环境构建 git clone https://github.com/hiyouga/LLaMA-Factory.git conda create -n llama_factory python=3.10 conda activate llama_factory cd LLaMA-Factory pip install -r requirements.txt 如果要在 Windows 平台上开启量化 LoRA(QLoRA),需要安装预编译的 bitsandbytes 库, 支持 CUDA 11.1 到 12.2, 请根据您的 CUDA 版本情况选择适合的发布版本。 pip install https://github.com/jllllll/bitsandbytes-windows-webui/releases/download/wheels/bitsandbytes-0.41.2.post2-py3-none-win_amd64.whl 2、在虚拟环境中安装cuda、cudnn 在新建的虚拟环境中使用conda安装cuda和cudnn。 conda install cudatoolkit cudnn 安装完成后,进入python环境进行验证,检测pytorch中CUDA是否能正常使用。 import torch torch.cuda.is_available() 如果返回True,则cuda安装正常。 如果返回False,请检查cuda和pytorch版本是否符合。 使用步骤1中的requirements.txt安装时,可能安装的是cpu版本的pytorch,使用conda list命令查看安装的pytorch包,如果是cpu版,则需要重新安装对应cuda版本的gpu版pytorch。 进入虚拟环境中执行以下命令,安装gpu版本的pytorch,下述演示的命令安装的为适配cuda11.8版本的pytorch,请按需选择版本。 pip3 install numpy --pre torch --force-reinstall --index-url https://download.pytorch.org/whl/nightly/cu118 二、启动LLaMA Board GUI 1、设置环境变量 CUDA_VISIBLE_DEVICES=0 python src/train_web.py 在Windows系统下,请设置系统环境变量CUDA_VISIBLE_DEVICES的值为0。...