优惠论坛
标题:
DeepSeek 被误读的 5 个真相,AI 大佬亲自揭秘-转载
[打印本页]
作者:
xialiu888
时间:
2025-2-8 10:42
标题:
DeepSeek 被误读的 5 个真相,AI 大佬亲自揭秘-转载
DeepSeek 已经爆火了一个春节,红起来自然是非就多。尤其在海外局势变化错综复杂的情况下,DeepSeek 的天朝血统,给它招来了许多谣言。
1 e, s8 v5 P/ d) `* s+ |& i* I
- ]) [7 `3 U% o$ b
Stability AI 曾经的研究主管 Tanishq Mathew Abraham 昨天挺身而出,以自己业内人士的身份下场,指出了 DeepSeek 极为特殊的几点:
# R1 u6 a6 `" J8 v
6 m" V- q) n6 `( z. `; E5 H+ V
1.性能实际上与 OpenAI 的 o1 一样好,这是一个前沿模型,标志着开源真正赶上了闭源
2 x$ m0 z( y( I$ x- z" u: U
+ k4 L" ?2 A8 R" j
2.与其他前沿模型相比,DeepSeek 以相对较低的训练费用完成
; v2 `" H0 d: `; m& _
# B# |3 H! ?" r! X8 w/ H: L+ h
3.易于使用的界面,结合其网站和应用程序中可见的思维链,吸引了数百万新用户加入
% B$ n9 _1 Y4 O4 ]" L L- K! {
* i6 s5 ]/ t# Z
除此之外,他更是针对几大流行的谣言,写了长长一篇博文,分析解释了围绕在 DeepSeek 四周的(离谱)言论。
) R+ l1 x; G+ W7 l3 m! ?" c
& T0 v% y! L7 e' X3 P
以下为博客文章,内容有所编辑:
# G- r" X* T3 ~5 H/ b5 b
4 C3 U/ C H' w
2025 年 1 月 20 日,一家名为 DeepSeek 的天朝 AI 公司开源并发布了他们的推理模型 R1。鉴于 DeepSeek 是一家天朝公司,美国及其 AGI 公司存在各种「国家安全担忧」。由于这一点,**关于它的错误信息已经广泛传播。**
, m& a: \' h1 R" V( t. y R
! \# o# K w; m8 h4 `9 ^9 y" d/ ~3 z7 l
这篇文章的目的是反驳自 DeepSeek 发布以来,许多关于 DeepSeek 的极端糟糕的 AI 相关观点。同时,作为一个在生成式 AI 前沿工作的 AI 研究人员,提供更有平衡性的观点。
+ M) j0 S, h1 h2 b/ Y
: |4 C% U9 c' p" m! u$ y6 D
谣言 1:可疑!DeepSeek 是一家突然冒出来的天朝公司
) m8 d; y8 h, `5 p& J! [9 Z8 A
完全错误,到 2025 年 1 月,几乎所有生成式 AI 研究人员都已经听说过 DeepSeek。DeepSeek 甚至在完整发布前几个月就发布了 R1 的预览!
% S$ A! W+ G) s; N% @8 _+ w
( {& d/ x+ _! [. M5 z( }
任何传播这种谣言的人,很可能并不从事人工智能工作——如果你不涉足该领域,却以为自己了解这个领域的一切,是荒谬且极其自负的。
( A: g* R6 P5 r5 z+ M2 a) \
3 Y" x" _: B3 c7 R6 O2 a
DeepSeek 的首个开源模型 DeepSeek-Coder,于 2023 年 11 月发布。当时是业界领先的代码 LLMs(编者注:专注于理解和生成代码的语言模型)。正如下面的图表所示,DeepSeek 在一年内持续发货,达到 R1:
0 s4 W# y' Y1 x; U V/ B; [, g, G
* k. k+ m2 ?/ U; Z9 n! y
, m; R9 C4 ^& m0 D V
这不是一夜之间的成功,他们进步的速度也没有什么可疑之处。在人工智能发展如此迅速,且他们拥有一个明显高效的团队的情况下,一年内取得这样的进步在我看来是非常合理的。
0 _. J* J7 e; a9 P( c' Q# C& e
) A0 h, e8 A5 p6 F0 I Q
如果您想知道哪些公司在公众视野之外,但 AI 领域内备受看好,我会推荐关注 Qwen(阿里巴巴)、YI(零一万物)、Mistral、Cohere、AI2。需要注意的是,它们没有像 DeepSeek 那样持续发布 SOTA 模型,但它们都**有潜力发布出色的模型**,正如它们过去所展示的那样。
/ I* Q5 j. G$ {" s" x5 }
; i3 P8 P8 `# m7 B3 w: x
谣言 2:撒谎!这个模型的成本不是 600 万美元
4 y; S: X, _$ ?4 x+ Q- J
这是一个有趣的问题。这类谣言认为 DeepSeek 想避免承认他们有非法的幕后交易来获取他们不应获得的计算资源(由于出口管制),从而在关于模型训练成本的真实性上撒谎。
8 a5 r. D( H* d$ ^
% F/ M/ C/ x# E6 }6 L& E. t+ X+ B
首先,600 万美元这个数字值得好好研究。它在 DeepSeek-V3 论文中有提及,该论文是在 DeepSeek-R1 论文发布前一个月发布的:
- D! u$ h; Z3 D
( Q1 A6 P8 A/ t$ [- v- Y
Y j- _6 e( u/ ]
DeepSeek-V3 是 DeepSeek-R1 的基础模型,这意味着 DeepSeek-R1 是 DeepSeek-V3 加上一些额外的强化学习训练。所以在某种程度上,成本已经不准确,因为强化学习训练的额外成本没有被计算在内。但那可能只会花费几十万美元。
/ O& x+ _& R/ \, _2 C& W C# l
; d3 h) |6 R- Q: S S4 `- Q' r
好的,那么 DeepSeek-V3 论文中提到的 550 万美元,是不正确的吗?基于 GPU 成本、数据集大小和模型大小的众多分析,已经得出了类似的估计。请注意,虽然 DeepSeek V3/R1 是一个 671B 参数的模型,但它是一个专家混合模型,这意味着模型的任何函数调用/前向传递只使用约 37B 参数,这是计算训练成本所使用的值。
3 x) T7 v$ G) [- r. m: r% ]/ T
# }' M: E5 d' O4 {: @( B
然而,DeepSeek 的成本,是基于当前市场价格估计的这些 GPU 的成本。我们实际上并不知道他们的 2048 个 H800 GPU 集群(注意:不是 H100s,这是一个常见的误解和混淆!)的成本。通常,连续的 GPU 集群在批量购入时成本会更低,因此甚至可能更便宜。
" m- ?3 Y$ R8 r
& c% R( d ~5 R& z& r: S" [
但是这里有个问题,这是最终运行的成本。在这成功之前,可能进行了许多在小规模的实验和消融,这一部分会需要相当大的成本,但这些并未在此处报告。
+ {0 F! y& X. e5 _
5 G0 V' N& ~" @7 U) Y! z/ g
除此之外,可能还有许多其他成本,如研究员薪资。SemiAnalysis 报告称,DeepSeek 的研究员薪资传闻约为 100 万美元。这相当于 AGI 前沿实验室如 OpenAI 或 Anthropic 的高薪水平。
* q& c- P, T) t- c h4 h; [: c6 U
' i) Q+ f7 ^3 G/ a4 N' E/ y0 b
通常,当报道和比较不同模型的训练成本时,最终的训练运行成本是最受关注的。但由于糟糕的论调和错误信息的传播,人们一直在争论额外的成本使 DeepSeek 的低成本和高效运营性质受到质疑。这是极其不公平的。无论是从消融/实验的角度,还是从其他 AGI 前沿实验室的研究人员薪酬的角度来看,成本都非常显著,但这些通常在这样的讨论中没有被提及!
3 v0 {( i+ ^; ^# {* D% z3 y
O, b. l4 [4 A2 E8 b$ Z, C( X
谣言 3:这么便宜?所有美国 AGI 公司都在浪费钱,看跌英伟达
0 v8 z; o% H" Y: L+ T( x: H, f
我认为这又是一个相当愚蠢的看法。与许多其他 LLM 相比,DeepSeek 在训练中确实效率更高。是的,许多美国前沿实验室在计算上效率低下是非常可能的。然而,这并不一定意味着拥有更多的计算资源是坏事。
7 Y2 r( {& V ?, u
' M% T- @( @' U8 T# N: t7 l) `
老实说,每当听到这样的观点,我就清楚地知道他们不懂 scaling laws,也不懂 AGI 公司 CEO(以及任何被视为 AI 专家的人)的心态。让我就这个话题发表一些看法。
& s- C' a) n R; k
3 t; I+ f/ i' E9 R
Scaling laws 表明,只要我们继续将更多的计算能力投入到模型中,我们就能获得更好的性能。当然,AI 扩展的确切方法和方面随着时间的推移而发生了变化:最初是模型大小,然后是数据集大小,现在是推理时间计算和合成数据。
0 {5 h1 w& F- R/ a# t: {
. I7 m( ^8 n$ C' j) }' ]
自 2017 年原始 Transformer 以来,更多的计算能力等于更好的性能的整体趋势似乎仍在持续。
8 @# x. d4 R) }' P# n9 P W# V, k
! @( U' K+ h1 g' h1 m7 P$ |
更高效的模型意味着您可以在给定的计算预算下获得更高的性能,但更多的计算资源仍然更好。更高效的模型意味着你可以用更少的计算资源做更多的事情,但使用更多的计算资源,可以做到更多!
& r5 {. g" Y8 s3 P$ I. E
; D5 Q C$ r5 C; o# l x* Q
你可能有自己的关于 scaling laws 的看法。你可能认为即将出现一个平台期。你可能认为过去的表现并不能预示未来的结果,正如金融界所说。
0 h5 v5 m% T& v6 L8 X! G6 e
# w% t3 a' B: U6 z3 |6 v! h% ?
但如果所有最大的 AGI 公司都在押注 scaling laws 能够持续足够长的时间,以实现 AGI 和 ASI。这是他们的坚定信念,那么唯一合理的行动就是获取更多的计算能力。
2 _( @" L: t! t
9 w8 O9 ?* Q6 }# Y
现在你可能认为「NVIDIA 的 GPU 很快就会过时,看看 AMD、Cerebras、Graphcore、TPUs、Trainium 等」,blabla。有数百万种针对 AI 的硬件产品,都在试图与 NVIDIA 竞争。其中之一可能在将来获胜。在这种情况下,也许这些 AGI 公司会转向它们——但这与 DeepSeek 的成功完全无关。
: O* I/ O2 R# W: h% L/ z. a
$ U/ V' W% ^* @8 }& M) s
个人而言,我认为没有强有力的证据表明其他公司会撼动 NVIDIA 在 AI 加速芯片领域的统治地位,鉴于 NVIDIA 目前的市场统治地位和持续的创新水平。
/ u9 y T& G2 d' q1 _
; c4 n) G1 P3 g. M$ T4 j: `; R" Z% A) D
总体而言,我看不出为什么 DeepSeek 意味着你应该看跌 NVIDIA。你可能有其他理由看跌 NVIDIA,这些理由可能非常合理且正确,但 DeepSeek 似乎不是我认为合适的理由。
5 C$ t9 C* r. o3 g( Z
: o! P1 K% u2 [9 c4 U0 \; N5 ^2 D
谣言 4:模仿罢了!DeepSeek 没有做出任何有意义的创新
R& v) V1 E# r, ?
错误。**语言模型的设计和训练方法有很多创新,其中一些比其他更重要**。以下是一些(不是完整的列表,可以阅读 DeepSeek-V3 和 DeepSeek-R1 论文以获取更多详细信息):
9 M r7 K. x9 P- e, N) D& A7 n- B
1 H% J4 l4 u5 m) c) _
多头潜注意力 (MLA) – LLMs 通常是指利用所谓的多头注意力(MHA)机制的 Transformer。DeepSeek 团队开发了一种 MHA 机制的变体,它既更节省内存,又提供更好的性能。
2 K0 S& V7 y6 i8 `% T- h0 d( p
" P' Z% S' h6 w1 J( r$ X1 a0 v
GRPO 与可验证奖励 – 自从 o1 发布以来,AI 从业者一直在尝试复制它。由于 OpenAI 对它的工作方式一直相当保密,大家不得不探索各种不同的方法来实现类似 o1 的结果。有各种尝试,如蒙特卡洛树搜索(谷歌 DeepMind 在围棋中获胜所采用的方法),结果证明不如最初预期的那样有希望。
4 r' K; h3 i( V& S/ B' @
3 {$ l+ a0 H7 D) D
DeepSeek 展示了一个非常简单的强化学习(RL)管道实际上可以实现类似 o1 的结果。除此之外,他们还开发了自己变种的常见 PPO RL 算法,称为 GRPO,它更高效且性能更好。我想 AI 社区中的许多人都在想,我们为什么之前没有尝试过这种方法呢?
* [/ G2 A8 y+ s! u' ]
4 e7 P& s" O. v* F4 S* E
DualPipe – 在多个 GPU 上训练 AI 模型时,有许多效率方面需要考虑。你需要弄清楚模型和数据集如何在所有 GPU 之间分配,数据如何通过 GPU 流动等。你还需要减少 GPU 之间任何数据传输,因为它非常慢,最好尽可能在每个单独的 GPU 上处理。无论如何,有许多设置此类多 GPU 训练的方法,DeepSeek 团队设计了一种新的、效率更高且速度更快的解决方案,称为 DualPipe。
0 M5 U9 v; P% r8 J
% P/ T. E4 u/ W; H6 ?+ o& B
我们非常幸运,DeepSeek 完全开源了这些创新,并写了详细的介绍,这与美国 AGI 公司不同。现在,每个人都可以受益,用这些创新的办法来提高他们自己的 AI 模型训练。
) o4 ]* n6 u8 p& @" q
! s) z% t. k8 f, K* ~' x2 {
谣言 5:DeepSeek 正在「汲取」ChatGPT 的知识
/ S: G) x0 B% u) e
戴维·萨克斯(美国ZF的 AI 和加密巨头)和 OpenAI 声称,DeepSeek 使用一种称为蒸馏的技术「汲取」ChatGPT 的知识。
: j! N; W4 D" X
. C; \8 G; Y. H* q6 f' e
首先,这里的「蒸馏」一词使用得非常奇怪。通常,蒸馏指的是在所有可能的下一个词(token)的全概率(logits)上进行训练,但这个信息甚至不能通过 ChatGPT 暴露出来。
$ M0 L3 J* W, U+ w! M& W/ ~9 T
. T- @* m; F, |+ ^* K' K# q
但是好吧,就假设我们在讨论如何使用 ChatGPT 生成的文本进行训练,尽管这并不是该术语的典型用法。
* r" E6 Q6 K0 l. O, ~
, T8 {# \) U1 \- }/ j. \% a, R
OpenAI 及其员工声称 DeepSeek 自己使用 ChatGPT 生成文本并在此基础上进行训练。他们没有提供证据,但如果这是真的,那么 DeepSeek 显然违反了 ChatGPT 的服务条款。我认为这对一家天朝公司来说,法律后果尚不明确,但我对此了解不多。
4 d! L) L7 j: C
+ \! x# ]3 f5 y5 ^
请注意,这仅限于 DeepSeek 自己生成了用于训练的数据。如果 DeepSeek 使用了来自其他来源的 ChatGPT 生成数据(目前有许多公开数据集),我的理解是这种「蒸馏」或合成数据训练并未被 TOS 禁止。
2 n4 H; Q! r% L* z
1 h2 i3 `& D# M
尽管如此,在我看来,这并不减少 DeepSeek 的成就。与 DeepSeek 的效率方面相比,作为研究人员,让我印象更深刻的是他们对 o1 的复制。我非常怀疑对 ChatGPT 进行「蒸馏」有任何帮助,这种怀疑完全是出于 o1 的 CoT 思维过程从未公开过,那么 DeepSeek 如何能够学习它呢?
2 d: y4 r8 _( }1 o; X2 z
& U/ m8 Q: |6 Q% i1 `8 m6 H' G9 V
此外,许多 LLMs 确实在 ChatGPT(以及其他 LLM)上进行了训练,而且在新抓取的任何互联网内容中自然也会有 AI 文本。
/ `* m1 m. Y$ o2 W% A6 t U; |
' X# g) q* K2 I4 x. X, ^
总体而言,认为 DeepSeek 的模型表现良好仅仅是因为它简单提炼了 ChatGPT 的观点,是忽略了 DeepSeek 在工程、效率和架构创新方面的现实。
7 K" e, W) u: K1 @& t. p9 Y
$ b5 l. |) |, J0 s
应该担心天朝在人工智能领域的霸权吗?
* V X" L( v% r6 u3 V
或许有一点?坦白说,现在和两个月前相比,中美 AI 竞赛在实质上并没有太多变化。相反,外界的反应相当激烈,这确实可能通过资金、监管等方面的变化影响整体 AI 格局。
8 n0 K0 O# b( L( W- O' z) W: x/ v
. k7 [8 o! Q( q3 G, r$ T6 E7 T
天朝人一直都在人工智能领域具有竞争力,DeepSeek 现在让他们变得无法忽视。
5 b" d; i: p4 X) C3 c) Y
$ ~$ V6 A2 G% ~3 e7 ~" ]. E
关于开源的典型论点是,由于天朝落后,我们不应该公开分享我们的技术,让他们赶上。但显然,天朝已经赶上了,他们实际上很久以前就已经赶上了,他们在开源方面实际上处于领先地位,因此不清楚进一步收紧我们的技术,实际上的帮助是否有那么大。
" f7 X+ t3 h s9 h5 q
8 B( q5 |, C+ N* ]. c
请注意,像 OpenAI、Anthropic 和 Google DeepMind 这样的公司肯定有比 DeepSeek R1 更好的模型。例如,OpenAI 的 o3 模型的基准测试结果相当令人印象深刻,他们可能已经有一个后续模型正在开发中。
) x/ M5 |$ Y) z$ K# i f
9 n4 c+ S6 u5 \9 {6 E1 e
在此基础上,随着像星门项目以及 OpenAI 即将到来的融资轮等重要额外投资,OpenAI 和其他美国前沿实验室将拥有充足的计算能力,以保持他们的领先地位。
' ~, N' O4 F# R, u7 X. T$ v/ E
! L& x6 a6 E( J, A; v9 n" Q4 u9 P) C
当然,天朝将向人工智能发展投入大量额外资金。所以总的来说,竞争正在升温!但我认为,美国 AGI 前沿实验室保持领先的道路仍然相当有希望。
- `5 @6 k. B o) V# z3 ?
/ a0 @; S4 C- Z# N
结论
$ h; n7 W* H2 F" @1 q- K
一方面,一些 AI 人士,尤其是 OpenAI 的一些人,试图淡化 DeepSeek。而另一方面,一些评论家和自称专家对 DeepSeek 又反应过度。
- h( G7 @4 M' G/ a
. K) X' j; P2 v7 h! U0 w- L4 W; V
需要指出的是,
, p8 u0 O& j! I3 i
OpenAI/Anthropic/Meta/Google/xAI/NVIDIA 等并没有就此完蛋。不,DeepSeek (很可能)没有在说他们所做的事情上撒谎。无论如何必须承认的是:DeepSeek 应得到认可,R1 是一个令人印象深刻的模型。
9 @& B9 M: m) ^* E5 C
) j$ B7 g5 W' u) J
作者:
22301
时间:
2025-2-8 10:55
这个真相是需要去了解下了啊。
作者:
护国石柱
时间:
2025-2-8 12:54
懂得这个方法我非常也是必定收藏起来了的哦。
作者:
liuxin960
时间:
2025-2-8 12:56
方法最后一段话觉得是有道理的,但是在我面前就难以实现,毕竟好运太差了。
作者:
洋森
时间:
2025-2-8 12:58
我是看完了,老哥后面的看法和提议也是赞同
作者:
anzizhong
时间:
2025-2-8 13:00
楼主介绍这个技术还是需要多多的收藏一下的。
作者:
stareshiny
时间:
2025-2-8 13:03
感恩大佬的分享,好人一生幸福。
作者:
南相楚
时间:
2025-2-8 13:06
非常棒的想法,感谢分享。
作者:
一帆风顺发
时间:
2025-2-8 13:10
老哥的这波推荐胜率不懂好不好。
作者:
lvaeyou
时间:
2025-2-8 13:15
此次方法也的确超级好的胜利来的啊
作者:
知行合一
时间:
2025-2-8 13:18
分享可以说是很专业的,都有在探究了。
作者:
林武风
时间:
2025-2-8 13:21
这样的分享是需要收藏起来,多多学习一下的。
作者:
想要水果机
时间:
2025-2-8 13:21
楼主的这些看法也是要好好看看了,你的用心了的!
作者:
wuzhaoshichao
时间:
2025-2-8 13:25
这一次方法在论坛的运气还是值得肯定的.
作者:
xiaoyi
时间:
2025-2-8 13:25
你介绍技术也是要关注一下的了
作者:
hong29
时间:
2025-2-8 13:26
这个方法行自己好好掌握,也是很棒的。
作者:
高文胜
时间:
2025-2-8 13:26
你的介绍肯定能.能够有盈利,就是一个好心态。
作者:
万家灯火
时间:
2025-2-8 13:26
搞小一点,就是运气不好,也不会搞的输了,心态肯定好啊
作者:
中大奖
时间:
2025-2-8 13:30
感谢您介绍的技巧都不能无视技巧啊
作者:
小希哥
时间:
2025-2-8 13:32
也是谢谢老哥的分享和介绍了,太难了的!
作者:
朱古力
时间:
2025-2-8 13:33
看上去你的看法是挺有感悟的许多的道理不错
作者:
bishao
时间:
2025-2-8 13:35
菠菜肯定有推荐,这是必须的
作者:
强强强123
时间:
2025-2-8 13:36
心态也是自己去拿捏好了才行了。
作者:
不要脸最大
时间:
2025-2-8 13:40
楼主的看法和建议还是非常好的了呢。
作者:
越前龙马
时间:
2025-2-8 13:41
这样的分享是可以收藏起来,然后学习一下的。
作者:
wodezhuanyong
时间:
2025-2-8 13:42
推荐看得再多,干脆亲自施行更好
作者:
jslinen
时间:
2025-2-8 13:44
推荐看得再多,干脆自己施行更好
作者:
百战
时间:
2025-2-8 13:44
我也希望大家多多来做推荐,有奖励大家一起共享
作者:
小夏Sherry
时间:
2025-2-8 13:44
看上去老哥的看法是挺有感悟的许多的道理不错
作者:
drogan
时间:
2025-2-8 13:46
搞小一点,就是运气不好,也不会搞的亏损了,心态肯定好啊
作者:
ouliangzhong
时间:
2025-2-8 13:47
这个楼主的一些看法我是觉得还是挺好的了啊
作者:
mxsj2016k
时间:
2025-2-8 13:47
很棒的想法,感谢分享。
作者:
rainwang
时间:
2025-2-8 13:48
管它怎么读呢,各人有各人的理解
作者:
老龙口
时间:
2025-2-8 13:48
这个老哥的一些看法我是觉得还是挺好的了啊
作者:
一路顺风
时间:
2025-2-8 13:50
你的看法很不错,看论坛的决定了,没想到你的文采这么好
作者:
linxiaoshan888
时间:
2025-2-8 13:53
心态影响最大的那么肯定是被黑了。
作者:
春娇与小智
时间:
2025-2-8 13:54
菠菜一定有推荐,这是不能缺少的
作者:
赌神归来
时间:
2025-2-8 13:55
这个推荐看起来不错,有需要的话不妨跟。
作者:
徐子
时间:
2025-2-8 13:57
博彩实在是要有一个好的心态了
作者:
leconer
时间:
2025-2-8 14:03
按照惯例来看看今天的推荐如何的了
作者:
不洗脸都帅
时间:
2025-2-8 14:03
心态这事情都懂的,可是都把握不到位啊
作者:
心随你动
时间:
2025-2-8 14:05
胜利的时候就该下线,全部方法长玩就是还回去
作者:
丁小荷
时间:
2025-2-8 14:06
只要有一个好的心态很重要的呢。
作者:
gkfbuw
时间:
2025-2-8 14:06
使用这个方法有盈利还是最好的结果了呀。
作者:
我的花园
时间:
2025-2-8 14:07
推荐多半都有输赢,大家还是要放平心态
作者:
大吉大利
时间:
2025-2-8 14:09
其实每个方法的吧~这个也是关心一下了
作者:
yumi666
时间:
2025-2-8 14:10
分享的是很棒啊,得花功夫看一下啊!
作者:
老衲来了
时间:
2025-2-8 14:13
老哥的这波推荐胜率不了解好不好。
作者:
星星知我心
时间:
2025-2-8 14:14
感激楼主的分享的看法和建议也是看看知道下的
作者:
不傻不成气候
时间:
2025-2-8 14:21
感谢您介绍的玩法都不能无视技术啊
作者:
jackcool1011
时间:
2025-2-8 15:59
DeepSeek现在很热门,感觉要赶超CPT的节奏
作者:
如梦的生活
时间:
2025-2-8 17:28
误读的真相也是要了解一下。
作者:
爱美的女人
时间:
2025-2-8 22:29
被误读的也是要在看是什么真相
作者:
赚钱小样
时间:
2025-2-10 17:47
分享的这个也是要看一下的了
作者:
舞出精彩
时间:
2025-2-13 12:02
5 个真相的也是可以在看到的呢
欢迎光临 优惠论坛 (https://www.tcelue.co/)
Powered by Discuz! X3.1