ChatGPT 一文全了解-免费账号分享


ChatGPT 全集

目录

一、ChatGPT 账号注册教程

一、注册 Chat GPT 账号

注册 ChatGPT 这一步主要包含以下几步(需要按照顺序逐步操作):

  1. 将网络环境切换成国外 IP(注意:必须是国外,且设置全局代理),且后续整个注册流程都必须在此网络环境下进行。【这步有问题的小伙伴可以私信我,保证解决】
  2. 打开链接:点击进入
  3. 并使用自己的邮箱进行账号注册。
  4. 打开邮箱查收 OpenAI 账号验证邮件,点击验证按钮完成邮箱验证。

下面每一个步骤的图片,大家可以对照着进行操作。!



邮箱验证完成后,我们第一步注册账号就算完成了,但是到这里我们还不能开始使用 ChatGPT,因为我们还需要进行手机号码验证。没有通过手机号码验证是使用不了 OpenAI(ChatGPT的开发商) 的服务的。

因为OpenAI官方的限制,国内和港澳的手机号码还有 Google Voice 的虚拟号码都是不能使用的。

这时候就要用到下一步的接码平台。

二、完成 ChatGPT 手机号码验证

这一步需要用到接码平台完成手机号验证,推荐平台链接地址:点击进入

具体过程包含以下几步:

  1. 通过自己的邮箱注册账号并完成邮箱验证(其他接码平台同理,但是不一定每个都好用,这个平台连接是我亲自验证过的)。
  2. 打开邮箱查收验证邮件并点击确认完成账号认证。
  3. 登录并且在右上角找到充值按钮,点击进行充值。
  4. 点击充值跳转后,往下滑找到支付宝,这里建议大家充值0.2美金就可以了(不够用再充)。
  5. 充值好了以后回到首页搜索「open」关键字就可以找到 OpenAI 验证码的临时号码购买链接。
  6. 在右侧激活区看到待使用的临时号码,将此号码复制到 OpenAI 的验证码接收区里面。
  7. 在 OpenAI 的页面点击发送验证码,这样就可以在接码平台接收到验证码(有时候有一点慢需要耐心等待一下),将验证码填进去,这样就完成 ChatGPT 手机号验证了。

这一步比较长,但是操作起来其实并不复杂,简单说就是通过接码平台收验证码完成验证,大家只要按照步骤操作就能成功。

下面是每一步的操作图,大家可以对照操作。








三、登录 ChatGPT 账号并开始使用

  1. 注册完后,我们去 ChatGPT 网站去登陆:点击进入
  2. 输入我们上面第一步注册好的账号密码就可以成功登录。
  3. 登录以后我们会进入到 ChatGPT 的主界面,在屏幕的正下方就是我们使用 ChatGPT 的输入对话框,ChatGPT采用交互式对话界面,使用非常便捷友好,你可以任意输入你感兴趣的内容并敲回车,ChatGPT 将会回答你。

二、探索 ChatGPT 的强大功能

问答测试

Q1:ChatGPT在未来会对哪些行业带来比较大的变化?

Q2:如何应对高校学生使用ChatGPT写论文或作业问题?

Q3:林黛玉为什么要三打白骨精 【误导型】

Q4:ChatGPT可以在教育行业中带来多种变化和机遇

Q5:ChatGPT可以在教育行业中带来哪些挑战?

三、对于ChatGPT的看法

  • 这只是一个语言模型,不是真理问答机
  • 人工智能会不会把人类培养成智能人工,失去思考创新能力,思维懒惰,过分依赖
  • 如何辨别其生成回答的正确性?ChatGPT并不具备甄别虚假信息的功能
  • 人工智能的当前技术水平远未达到人工智能能力的最终状态

国外动向

  • 比尔·盖茨盛赞ChatGPT:称其“不亚于互联网诞生”
  • OpenAI 公司推出的 ChatGPT 的姊妹产品 DALL-E 可以根据使用者文字描述的内容自动生成各种风格设定的图片
  • 埃龙·马斯克称 ChatGPT 将颠覆世界
  • 微软公司以数百亿美元投资 ChatGPT,并计划将其整合到微软的 Office 办公软件和 Bing 搜索引擎之中

国内动向

  • 2023 年 2 月 7 日,百度公众号发出简短而震撼的《官 宣:文心一言》
    • 国内开发难点:
      • 最困难的部分其实是敏感词屏蔽和有害信息过滤(ChatGPT 的屏蔽程度,在国内恐怕是不够的,因为它仍然可能在用户恶意诱导下说出不该说的东西)
  • 部分高校和学术机构开展了关于用 ChatGPT 写论文是否合规的大讨论
  • 部分咨询公司开始担忧是否会被其替代

四、关于ChatGPT

ChatGPT 目前耀眼的几项功能和现状:

一、现状

  1. 目前,ChatGPT 的版本是 ChatGPT 3.5,升级产品 ChatGPT4 尚待发布
  2. 在推出仅两个月后,ChatGPT月活用户已经突破1亿,成为史上用户增长速度最快的消费级应用程序
  3. 谷歌发布了ChatGPT竞品Bard,百度推出国产版ChatGPT——文心一言,美团联合创始人王慧文出资5000万美元创业、希望打造中国的OpenAI
  4. 当今最著名的大型语言模型(LLM)实际上都具有相同的架构

二、优点/势

  1. ChatGPT 以输入问题自动生成答案的文字互动形式为主,兼具编写和调试计算机程序的写代码等能力
  2. 在一定程度上 ChatGPT 会揣测人的意图和准确理解上下文语境
  3. ChatGPT 的通用性做得过于优秀,已经拥有了强大的语言理解和生成能力
  4. 从目前的用户反馈以及进化速度来看,ChatGPT在商业化方面的机会巨大
  5. 大小(参数计数)、训练的数据、使用的优化算法、批量大小、隐藏层的数量、经过指令微调等等这些方面都做的比同行要好得多
  6. ChatGPT有一个巨大的先发优势,就是它通过抢先开始公测,收集了大量的用户的使用数据,这是更加宝贵的数据
  7. 为了防止ChatGPT输出有害信息,OpenAI还花了大价钱去找印度和肯尼亚的外包公司标记了大量的有害文本,用来训练模型不要输出有害信息,这部分数据也是 OpenAI 积淀了几年筑起的数据壁垒

三、缺点

  1. 答案缺乏可靠性是目前ChatGPT面临的最大挑战,特别是针对事实性和知识性相关的问答
  2. 大型语言模型经常会产生不准确、误导或错误的信息(并自信且令人信服地呈现)【这一点很致命,即使是 99% 的准确率也不足以让市场广泛采用
  3. 对于某些特定领域的知识掌握不足。尽管ChatGPT通过大规模语料的训练获得了广泛的知识,但在某些专业领域的知识方面可能存在不足
  4. 可能会表现出偏见。由于ChatGPT训练数据源于大量的互联网数据,它可能会受到互联网偏见的影响,例如对某些人群或观点持有偏见,并在回复中表现出来
  5. 无法真正理解人类的情感,例如愤怒、悲伤或喜悦,因此它可能会产生缺乏情感的回复
  6. 对于某些复杂的问题,ChatGPT可能无法提供有意义的回复。在面对某些复杂的问题或任务时,ChatGPT可能会出现回复不连贯或者无意义的情况

四、为什么还是可以做这么出众?

  1. ChatGPT就是一个语言大模型,语言大模型本质就是一种深度神经网络,深度神经网络本质就是一种统计模型,就是从高频数据中习得相关模式
    • 引入了核心技术RLHF (基于人类反馈的强化学习),即用强化学习的方法,利用人类反馈信号直接优化语言模型
    • 很多常见的知识或事实,在训练数据中出现频率高上下文之间的模式比较固定,预测的词语概率分布就比较尖锐,熵比较小,大模型容易记住,并在解码过程中输出正确的事实或知识。
    • 有很多事件和知识即使在非常庞大的训练数据中也很少出现,大模型便无法学习到相关模式,上下文之间的模式比较松散,词语预测的概率分布比较平滑,熵比较大,大模型在推理过程中容易产生不确定性的随机输出。这是包括ChatGPT在内所有生成式模型的固有问题
  2. ChatGPT 的“创造性”或“创新能力” 本质是超级算力加持的“量变”,也是某种“质变” 预料的结果,貌似自发的创新能力的实质是人的智 能的预设,如同海德格尔的“技术的座驾”。只要数据模型或语料库足够巨大,“量变引起质变,这是绅士们从来没有嗅到的”
  3. ChatGPT在同一个对话过程中会非常相信用户的反馈。其次,即使用户反馈的信息是正确的,但因为可能出现频率不高,基础大模型不能根据低频数据更新参数,否则大模型就会对某些长尾数据进行过拟合从而失去通用性

附:人工智能基本了解

  • 人工智能 当前处于由弱到强的过渡阶段,ChatGPT 并未达到强人工智能
    • 弱人工智能
    • 通用(强)人工智能,即像人类一样拥有全面智能
    • 超级人工智能
  • 稀疏专家模型
    • 基本概念
      • ChatGPT使用的模型是很密集的,这意味着每次模型运行时,都会使用它的每一个参数。例如,每次您向 GPT-3 提交提示时,模型的所有 1750 亿个参数都会被激活以产生响应。但是,如果一个模型能够仅调用其参数中最相关的子集来响应给定的查询呢?这是稀疏专家模型背后的基本概念
    • 关键优势
      • 与密集模型相比,它们可以更大且计算要求更低,稀疏模型使得能够在不增加运行时间的情况下训练更大的模型
      • 它们比密集模型更具可解释性(人类理解模型为什么采取它所做的行动的能力)是当今人工智能最大的弱点之一
    • 为什么稀疏模型被称为稀疏专家模型?
      • 因为稀疏模型可以被认为是由充当不同主题专家的“子模型”的集合组成的。根据提供给模型的提示,模型中最相关的专家被激活,而其他专家保持不活动状态。

五、ChatGPT相关报道

  1. 专访复旦教授张军平:国内想超越ChatGPT,要在编程、硬件、数据上同时使力【来源:搜狐科技
    1. 复旦大学计算机科学技术学院教授、博士生导师张军平表示:“我认为ChatGPT已经走在了弱人工智能与强人工智能之间的边界上。”
    2. 有斯坦福大学学者甚至认为ChatGPT背后模型拥有心智,相当于人类9岁儿童
      • 张军平对此持反对意见。他认为,从计算机角度来看,ChatGPT本质上是程序,看起来像有人的心智,但与真正有心智之间有本质的区别,两者实现的路径完全不一样,“AI需要消耗巨大的电力、算力,人类大脑工作一天消耗的能量只有20多瓦。”
    3. 在张军平看来,国内要想做出超越ChatGPT的产品,需要在编程、硬件、数据这三方面同时使力。以硬件为例,美国对顶级计算芯片有限制,比如ChatGPT用的Nvidia A100国内无法获取,这导致算力上会有差距
  2. ChatGPT之后,下一代大型语言模型在哪里?【来源:学术头条
    1. 大模型可以产生训练数据来用于改善自己【已经部分实现】
      1. 第一项工作:”大型语言模型可以自我改进”的研究工作,使得 LLM 模型在 GSM8K 上的性能从 74.2% 提高到 82.1%,在 DROP 上从78.2% 提高到 83.0%,这两个流行的标准用于评估LLM 性能
      2. 第二项工作:这项工作建立在称为“指令微调”的重要 LLM 方法的基础上,ChatGPT 和其他指令微调模型依赖于人工编写的指令,而该研究小组构建了一个模型,可以生成自己的自然语言指令,然后根据这些指令进行自我微调。性能提升非常显著:这种方法将基础 GPT-3 模型的性能提高了 33%,几乎与 OpenAI 自己的指令调优模型的性能相当。
      3. DeepMind 的 Chinchilla 是当今领先的 LLMs之一,接受了 1.4 万亿个Token的训练
    2. 大模型可以核查确认事实【待解决实现】
      1. OpenAI 首席执行官 Sam Altman 本人也承认大型语言模型经常会产生不准确、误导或错误的信息,他最近警告说:“ChatGPT 非常有限,但在某些方面已经足够出色,足以给人一种伟大的误导性印象。现在依赖它来做任何重要的事情都是错误的。”
      2. LLMs 的幻觉问题是否可以通过对现有架构的渐进式改进来解决,或者是否有必要对 AI 方法论进行更基本的范式转变以赋予 AI 常识和真正的理解,这是一个悬而未决的问题。
      3. 解决方式:
        1. LLM 从外部来源检索信息的能力
        2. LLM 为他们提供的信息提供参考和引用的能力
    3. 海量稀疏专家模型【附:人工智能的基本了解】
  3. 美国微软内部人士:凡是称要投资几个亿搞ChatGPT的,都是诈骗【来源:网易新闻
  4. 比尔·盖茨盛赞ChatGPT:称其“不亚于互联网诞生”
  5. Meta AI 负责人 Yann LeCun近日表示:“就底层技术而言,ChatGPT 并没有特别的创新。这不是革命性的,尽管这是公众对它的看法。只是,你知道,它被很好地组合在了一起,做得很好。”,底层技术:是自回归、自我监督、预训练、密集激活的基于Transformer的模型
  6. 据报道,高达89%的美国学生承认在完成作业时用过ChatGPT,甚至ChatGPT还通过了年薪18.3万美元的谷歌工程师面试。

六、ChatGPT相关文献

[ChatGPT的运行模式、关键技术及未来图景_朱光辉]重点

[ChatGPT爆火后关于科技伦理及学术伦理的冷思考_令小雄]

【End】ChatGPT 免费分享账号【数量有限】私聊我,真免费!