/chat-gpt-full-stack

chatgpt 全栈解决方案, gptweiui开发, chatgpt full stack solution, chatgpt about, chatgpt deploy

MIT LicenseMIT

chat-gpt-full-stack

chatgpt 全栈解决方案 快速接入openai 产品方案 运营策略 技术方案+实现

chatgpt full stack solution

中文 - English

持续更新中...

聊天UI方案

SPA

SPA的全称是Single-Page Application,也就是单页应用程序。它是一种Web应用程序的开发模式,不同于传统的多页面Web应用程序,在SPA中整个应用程序只有一个HTML页面,其余页面内容通过JavaScript动态替换加载,实现无刷新加载页面,提高了应用程序的性能和用户体验。

vue2

OpenAI管理界面,聚合了OpenAI的所有接口进行界面操作(所有模型、图片、音频、微调、文件)等,支持Markdown格式(公式、图表,表格)等

vue3

用 Express 和 Vue3 搭建的 ChatGPT 演示网页

功能

  • [✓] 双模型
  • [✓] 多会话储存和上下文逻辑
  • [✓] 对代码等消息类型的格式化美化处理
  • [✓] 访问权限控制
  • [✓] 数据导入、导出
  • [✓] 保存消息到本地图片
  • [✓] 界面多语言
  • [✓] 界面主题

SSR方案

SSR是服务器端渲染(Server-Side Rendering)的简称。它是一种技术,可以将服务器端生成的 HTML 直接返回给客户端,而不是在客户端执行 JavaScript 代码生成 HTML。与客户端渲染相比,SSR 可以提高页面的首次加载速度、SEO 的效果以及降低首屏渲染成本等优势。SSR 的主要实现方式是使用 Node.js 或其他后端技术来渲染网站或应用程序的 HTML 和数据,以便在服务器发送给客户端之前先准备好所有内容。

基于next

Next.js是一个基于React框架的轻量级服务端渲染(SSR)框架,它提供了一些丰富的特性,如代码分割、静态文件导出、数据预取等等,使得开发React应用更加高效。 Next.js还提供了极佳的开发体验,支持热重载(Hot-reload)和实时编译,可以让你在开发React应用时无需充斥大量的配置。 总的来说,Next.js 是用于简化 服务端渲染(SSR) 和 静态网站生成(SSG) 的 React 应用程序的开发和部署的工具。 它为开发人员提供了服务器渲染,静态导出等功能,从而实现更好的性能、SEO等。

一键免费部署你的私人 ChatGPT 网页应用。 体验相当好的ui

主要功能

  • 精心设计的 UI,响应式设计,支持深色模式,支持 PWA
  • 极快的首屏加载速度(~100kb)
  • 海量的内置 prompt 列表,来自中文和英文
  • 自动压缩上下文聊天记录,在节省 Token 的同时支持超长对话
  • 一键导出聊天记录,完整的 Markdown 支持
  • 拥有自己的域名?好上加好,绑定后即可在任何地方无障碍快速访问

基于astro

Astro是一个全新的现代化的静态网站生成器,它采用了现代化的开发框架和技术,如React、Vue、Svelte等,并提供了一些预设的模板和组件,以简化开发过程。 Astro采用完全静态的生成模式,可以在本地生成和预览站点,也可以在部署到任何支持静态站点托管的平台上。它提供了界面简洁、易于使用的开发体验,开发者可以使用它来构建各种类型的网站,包括静态网页、博客、电子商务网站等等。

一个基于 OpenAI GPT-3.5 Turbo API 的 demo。

优雅而强大。由 OpenAI 和 Vercel 提供支持。 重点 真的优雅而强大 亲自部署使用

部署在Vercel的ChatGPT镜像站点(gpt-3.5-turbo) 支持随机生成预设场景(100+) 支持缓存会话

基于nuxt

Nuxt.js是一个基于Vue.js的服务端渲染的应用框架,它有助于构建大型、高度可维护的Vue.js应用程序。Nuxt.js提供了许多有用的特性,例如代码分割、静态生成、预渲染和服务器端渲染等,可以让你构建现代Web应用程序,提高应用程序性能和SEO优化效果。通过Nuxt.js,开发人员可以使用Vue.js框架来快速构建高质量的Web应用,并且无需担心复杂的设置和配置。

关于 ChatGPT Web 客户端,支持多用户、多数据库连接用于持久数据存储,支持 i18n。提供Docker镜像和快速部署脚本。

demo.mp4

基于php

PHP版调用OpenAI的API接口进行问答的Demo,代码已更新为调用最新的gpt-3.5-turbo模型。 采用Stream流模式通信,一边生成一边输出

client 客户端

weixin bot

基于php

chatgpt-wechat-personal 实现原理: 腾讯服务器推送用户消息过来时,调用OpenAI的API接口,并将用户的问题和返回的结果存到日志文件中。 在5秒内很可能收不到OpenAI返回的消息。没关系,直接让腾讯服务器发过来的请求响应超时。 等腾讯第二次或第三次查询的时候,第一次请求调用OpenAI的结果也返回并写到文件中了,直接从文件中获取结果返回给用户。

prompts 相关

部署相关

解决网络问题

使用cloudflare 搭建免费的 OpenAI api代理 ,解决网络无法访问问题。支持 Stream 流式输出