芯友网Xin1234.COM

 一条共享信息,如何处理 百万级用户已读、未读识别?



姓百
 一条共享信息,如何处理 百万级用户已读、未读识别?
清三化气一
 那天来的时候你可是蛋疼的说了一路
*往过
...
贝壳?说什么情深似海我却不敢当 
/小纠结
清三化气一
?百姓 我觉得是读的适合就应该给那个信息累加一次
而不是靠统计。那样太可怕
姓百
你意思是新建一个已读用户字段?
清三化气一
?百姓   已读数量。然后当用户读了之后。把这个信息的id还有用户读取的数量都缓存起来。然后其他用户再读的适合就累加1.再然后搞个定时任务。一个小时或者多久定时update一些那条数据。不然用户读一次update一次也不科学
清三化气一
所以说是把那个数量缓存起来。用户读的适合update缓存。然后定时把这个数量更新到对应id的信息里面去
  这样搞就是需要搞个计划任务。麻烦点。
我不会计划任务。都是找运维搞的。
要是会的话。这样搞也老简单了。又不存在性能问题。
姓百
没那么简单
清三化气一
还有什么问题我没想到
姓百
有人说 Redis 可以处理这些问题
清三化气一
我是说的缓存啊。
风如逼装
。。。
清三化气一
你用file缓存都可以达到目的。
风如逼装
清三化气一
只不过对硬盘读写过多也不好。
memcache和redis都可以。
用file比mysql性能还差
tixe
要我搞  我就会在redis里面存两个一个用set存 文章名/文章对应已读次数  还一个redis hset 存 文章名  用户openid/id  是否已读标志
清三化气一
存信息id和数量 array(id=>1,num=&get;90)
风如逼装
真的有那么多的百万千万级数据量的项目吗
清三化气一
序列化或json一下存进去
姓百
 
tixe
分一个redis库 专门用来存文章和点赞或者已读未读的 
清三化气一
是的。但是也要计划任务更新到信息表对应的id里面去。然后读的适合还是要读缓存里面的。
因为缓存里面的是最及时 最准确的数据
ima
百姓 我回复你了
欢迎交流

相关问题
------分隔线----------------------------
赞助商链接
赞助商链接
推荐内容