小红书玩了大概一周了...

  • karminski-牙医
  • 2025-01-26 04:59:44
小红书玩了大概一周了,不过只是把微博内容去掉链接同步过去而已,毫无加工。说下我个人网感:

1. 这是个纯粹的消费平台, 一切内容只有一个目的, 消费——可以消费实体, 也可以消费好玩的, 有趣的, 刺激的内容. 但知识不是. 伪知识也差点意思(导航或合集性质) 。如果你很深刻理解知识和经验的区别,那么,这里更适合经验,而不是知识。

2. 微博移动端上你的内容最对可能与2个内容同时竞争来吸引读者的注意力(同屏上中下三个),而小红书是两排,需要与5个内容同时竞争,所以图片是否容易消费直接决定生死。

3. 你的图从构图上一定要内聚,把用户实现能拉到你这一列来,尽量用9:16分辨率(手机竖屏),不要用16:9, 不然展示空间都会小很多.

4. 内容也在第一眼就要可以消费, 大段文本如同买乐高零件扔给小朋友, 小朋友看都不会看.

5. 内容如何做到容易消费呢?核心文本最好控制在60个字(正好正文图片下面前三行). 不要妄图分享有价值的复杂内容. 要分享容易消费的内容.

6. 什么是有价值的复杂内容——论在桥上撒币的祭祀习俗的起源。什么是容易消费的内容——卧槽我在桥上捡了10块钱钢镚!

7. 一个感性的观察, 用户群体对品牌特别敏感. 比如说显卡不如说华硕, 说CPU不如说intel. 可能是由于好物推荐最终落地到品牌容易形成记忆。

8. 如此种种, 最终形成了——小红书体,即,无推导过程,"乍一看全是重点的笔记"。

下面是badcase和goodcase:

badcase:

Transformer 是一种用于自然语言处理 (NLP) 的深度学习模型架构, 由 Vaswani 等人在 2017 年提出. 它主要用于处理序列到序列的任务, 如机器翻译, 文本生成等. (此处省略Transformer 核心原理1800字,感兴趣的同学不要担心,明天09:30的定时微博就是Transformer,记得关注收看哦~)

goodace:

AI都在用的Transformer !三个知识点教会你 (20字)

Transformer 就是在你说完话后给你接话!它有每个字出现的概率!还记得上学时候班里接话的同学吗?Transformer跟他一样!
huggingface 就是靠 Transformer 发家的,Github上有13万⭐!
Transformer 打败了其它所有对手!比如RNN。

配图越炫酷越好,跟Transformer 是否有关系无所谓。

(以上仅供娱乐,赶紧叠个buff[开学季]

说了这么多,我改了吗?没有,因为我懒[开学季]
小红书玩了大概一周了...小红书玩了大概一周了...