⚠️ 如果您有光敏性,您可能想跳过此操作。 请参阅下面的静态图片,这些灯将开始快速闪烁!
互联网如何运作?
记住标题……我们在这里讨论的是流。
我可以谈论协议、数据包、排序、acks 和 nacks…但我们在这里谈论流,正如你可能猜对了(我相信你 =d)流…它要么是二进制,要么是字符串。
是的,字符串在发送之前会被压缩……但是对于我们在前后端开发中通常关心的内容……字符串和二进制。
在下面的示例中,我将使用 js 流。
虽然 node 有自己的遗留实现,但我们有办法处理相同代码的流,无论是在前面还是后面。
其他语言有自己处理流的方式,但正如你所看到的......处理它的实际代码部分并不复杂(并不是说没有发生复杂的事情)。
示例问题
您的前端必须使用多个来源的数据。
虽然您可以通过其 ip/端口单独访问每个源,但您可以将它们放在 api 网关后面以便于使用和控制。
回购协议
检查链接中的存储库,了解如何自己运行它,以便您可以使用它。
https://github.com/noriller/chunk-busters
视频
后续视频版本:
https://youtu.be/qucaoffi0fm
v0 - 简单的实现
您拥有源,您可以获取、等待和渲染。冲洗并重复。
await fetch1(); handleresult(1); await fetch2(); handleresult(2); ... await fetch9(); handleresult(9);
你可能会认为没有人会真正这么做......
在这个例子中,很明显出了问题,但陷入这个问题并不难。
显而易见:它很慢。你必须触发并等待每个请求,如果速度很慢......你必须等待。
v1 - 渴望版本
您知道您不想单独等待每个请求......因此您触发所有请求,然后等待它们完成。
await promise.all([ fetch1(), fetch2(), ... fetch9(), ]); handleallresults(results);
这就是你可能会做的事情,所以这很好,对吧?
我的意思是,除非您有一个请求速度很慢……这意味着即使所有其他请求都已完成……您仍然必须等待该请求完成。
v2 - 更智能、更热心的版本
你知道你可能有一些较慢的请求,所以你仍然触发所有请求并等待,但当它们到来时,你已经在可能的情况下对结果做了一些事情,所以当最后一个请求到达时,其他请求已经完成。
await promise.all([ fetch1().then(handleresult), fetch2().then(handleresult), ... fetch9().then(handleresult), ]);
这一定是最好的解决方案,对吧?
嗯……有什么奇怪的吗?
v3 - 我在骗你……这就是 v1 应该的样子
还记得 v1 吗?是的...它应该是这样的:
事实证明,在 http/1 中同一个端点可以拥有的连接数量是有限制的,不仅如此……它还依赖于浏览器,并且每个浏览器可能有不同的限制。
您可能会认为只使用 http/2 就到此为止了……但即使这是一个很好的解决方案,您仍然需要在前端处理多个端点。
有没有好的解决方案?
v4 - 进入流!
让我们回顾一下 v0,但使用流......
你很聪明,所以你可能已经预料到了这一点,因为警告有点破坏了它……但是是的……你之前看到的并不是后端生成的所有数据。
无论如何......当我们获取时我们就会渲染。
// usually we do this: await fetch(...).then((res) => { // this json call accumulate all the response // that later is returned for you to use return res.json() })
如果我们点击即将到来的流,我们就可以对它到来的数据块做一些事情。 (是的!就像 chat gpt 之类的一样。)
即使 v0 是处理这个问题最糟糕的方法,但通过使用流可以大大改善它。即使总等待时间相同,您也可以通过显示某些内容来欺骗用户。
再次是 v5 - v1,但是带有流!
http/1 问题仍然是一个问题,但同样,您已经可以看到事情的来龙去脉。
是的…我不能再拖延了…所以…
v6 - 一个 api 来统治它们!
或者……也许我可以?
你看,前端必须管理太多......如果我们可以将其卸载到后端,那么您就可以拥有一个端点来处理所有源。
这解决了前端的复杂性和 http/1 问题。
await fetchall(); handleallresults(results);
// if you had already offloaded to the backend, // then you might had data like { data0: [...], data1: [...], ... data9: [...], } // since the backend would be doing the fetch // waiting all the data and then sending to the front // in this case, however... [ { from: 'data9', ... }, { from: 'data1', ... }, { from: 'data1', ... }, { from: 'data0', ... }, ... { from: 'data1', ... }, ] // the backend will stream from the sources, // it will handle, parse, do something with each, // then send it to the front // the order is not guaranteed, it will be out of order // between the sources and you need to add something // to know which source sent each piece // but you can receive piece by piece as it's generated // and handle them accordingly
v7 - 最后......一个 api、多个源和流媒体。
我们调用一个 api,它将调用所有源、流式传输数据、处理数据,并将其传递到前端,前端将依次渲染数据。
用于此的代码正面和背面基本相同:
// in both frontend and backend we can use the same `fetch` api fetch(url, { // we use the AbortController to cancel the request // if the user navigates away (or if connection is closed) signal, }).then(async (res) => { // instead of the "normal" `res.json()` or `res.text()` // we use the body of the response // and get the reader from the body // this is a `ReadableStream` // (there are other types of streams and ways to consume them) const reader = res.body?.getReader(); if (!reader) { return; } // remember we are "low level" here // streams can be strings or binary data // for this one we know it's a string // so we will accumulate it in a string let buffer = ''; // let's read until the stream is done while (true) { const { done, value } = await reader.read(); // if the stream is done (or the user aborted) if (done || signal.aborted) { // cancel the stream, exit the loop reader.cancel(signal.reason); break; } // if we have a value if (value) { // decode and add to the buffer buffer = buffer + new TextDecoder().decode(value); // here is where the magic happens! // we check if we can consume something from the buffer if (canConsumeSomething(buffer)) { // value above might be half or double of one "chunk" // so, we need to slice what we can consume // the if above might be changed to a "while" // or the chunk below might be "multiple" // consumable values... it all depends on how // you will use it. const [chunk, remaining] = consumeSomething(buffer); // in the frontend, make it render the chunk // (in react, we can simply update the state // and let react handle the rerendering based on that) renderChunk(chunk); // in the backend... send the response // we can always parse, transform before that // but the back will probably either send to the // frontend, another service or to a DB. sendResponse(chunk); // and then we update the buffer buffer = remaining; } } } });
是的......就是这样(最基本和最简单的例子)。
我们将字符串添加到缓冲区中,解析它,检查是否有可用的块,使用它,然后忘记它。这意味着您可以接收/消耗 tb 级的数据……一次一大块,而 ram 很少。
我知道你在想什么......这很愚蠢......这也是疯狂......
moooooooom 我想要 websocket!
不,亲爱的,我们家里有网络套接字!
家里的 websocket:下一个?
v8 - 如果它不起作用,那才是愚蠢的
你很聪明,你认为如果源仍在生成数据......那么也许我们可以更新一些变量......
通过这种方式,您可以保持一个连接用于获取更多数据或更改其生成的内容。
是的......我想你可以做到这一点......并且在你的坚持下我做了这个例子。 =d
仍然......这是一个愚蠢的想法,我不知道它在哪里/是否可以在真实的生产环境中使用。也许如果你回到 mpa 和 ajax 之间那个尴尬的 js 阶段,在这个阶段你有足够的交互性,但没有足够的连接到同一服务器(某些浏览器的限制只有 2 个!),那么也许?
除此之外,不知道。如果您确实有……请告诉我。
在上面的例子中,注意中间的面板,尤其是“进度边框”:你可以看到它在不断更新。如果您打开网络选项卡,您会看到 get 连接在结束之前从未关闭。您还会看到多个其他请求,这些请求改变了那个仍然存在的连接正在执行的操作……所有这些都使用普通的 http/1。
接下来是什么?
字符串与 json
这个例子是我能做的最基本的例子。我什至使用简单的字符串而不是 json,因为它更容易解析。
要使用 json,您必须累积字符串(出于某种原因,我们必须对后端响应进行 json.stringify)。
然后检查在哪里打破它,然后解析该值或边解析边解析。
对于第一个,请考虑 ndjson:而不是 json 数组,您可以用换行符分隔对象,然后您可以“更轻松地”找到中断的位置,然后 json.parse 每个对象并使用该对象。
对于后者,你可以边解析边解析:你知道你在一个数组中,现在它是一个对象,好的第一个键,现在它是键的值,下一个键,跳过那个,下一个键......等等……手动制作并不是一件简单的事情,但这就像在等待时从等待然后渲染到渲染的跳转,这一切都是关于……除了……规模更小。
错误处理
人们喜欢托管示例,这个您需要自己运行...我希望现在不将示例托管在某个地方的原因已经清楚,但另一个原因是我们不希望这里出现任何错误,如果您要添加网络错误高于一切......好吧......
应该处理错误,但它们确实增加了另一层复杂性。
你应该使用它吗?
也许...你可以说取决于...
有些地方流式传输是答案,但在大多数情况下......await json 就足够了(更不用说更容易了)。
但是学习流可以解决一些问题,无论是在前端还是后端。
在前端,你总是可以用它来“欺骗”用户。您可以在某些内容出现时显示它,然后在出现时显示更多内容,而不是到处显示旋转器,即使这需要一段时间。只要您不阻止用户与其交互...您甚至可以制作比仅显示旋转器“更慢”的东西感觉就像它比任何东西都快实际上更快.
在后端,您可以节省 ram,因为您可以解析每个数据块,无论是来自前端、数据库还是中间的任何其他数据。根据需要处理数据并发送数据,而不必等待整个有效负载,否则会引发 oom(内存不足)错误。 gb 甚至 tb 的数据……当然,为什么不呢?
尾奏
react 慢吗?整个示例前端是用 react 完成的,除了所有闪烁的“灯”发生的“主要”事情之外,还有很多其他事情发生。
是的......如果你走得足够快,示例就无法跟上并开始冻结。但由于每分钟很容易进行数千个渲染……我确实认为这对于大多数应用程序来说已经足够了。
并且,您始终可以提高性能:对于“进度边框”,如果您需要在渲染中保存一些内容,我使用了延迟值来使其更加平滑......我可以为“灯光”完成此操作以及其他性能增强和标题,但它只会让“灯”很多时候停止闪烁(这不会成为一个很好的演示),而且标题中的“电动”下划线也不会那么有趣是。
在这个例子中,所有这些“改进”都不是理想的,但对于正常的应用程序......你可以让它处理很多事情。如果您确实需要更多东西,那么在这种情况下请使用其他解决方案。
结论
将流添加到您的武器库中......它可能不是万能的解决方案,但有一天它肯定会派上用场。
如果你想用它做点什么并且需要帮助,那么……也许可以给我打电话。 =p
以上就是Chunk-Busters:不要跨越溪流!的详细内容,更多请关注php中文网其它相关文章!