Tip
如果有合适的职位数据源,欢迎👏提 issues, 我们将视情况开发。
数据抓取为独立服务, x-hiring grab
配置环境变量。 在根目录创建 .env
文件(参考 .env.example
), 之后复制下面内容
# Prisma postgresql 数据库
DATABASE_URL="postgresql://x-hiring:password@0.0.0.0:5432/x-hiring"
# Next Auth
# You can generate a new secret on the command line with:
# openssl rand -base64 32
NEXTAUTH_SECRET="xxx"
NEXTAUTH_URL="http://localhost:3000"
# Google Gemini AI
GEMINI_AI_API_KEY="api_token"
# 本地代理 (可选)
LOCAL_FETCH_PROXY="http://127.0.0.1:7890"
npm install
npm run dev
打开 http://localhost:3000
网站和抓取分析,为什么分为了两个服务?
- 抓取是长时运行任务, @vercel 免费版最大运行时长 10s, cron 的是每日一次,最小单位为小时,任务运行时长也有最大限制
- #Gemini 有地域限制,且未直接在业务中使用,所以结合抓取实现摘要保存更合适
接下来的计划是什么?
- 新增 team 入口, 展示中文社区开发团队和独立开发者列表
- RSS 服务:
https://x-hiring.hehehai.cn/feed.xml
- 账号登录,订阅职位关键词,有效职位发布后,将第一时间收到邮件
- 群二维码失效,请加我的微信
职位群 | 我的 WX | |
---|---|---|