Как отложить запрос чтения потока

Я все еще пытаюсь проникнуть через streams в целом. Мне удалось form.on('part') большой файл с использованием многопартийности из form.on('part'). Но мне нужно отложить вызов и разрешить поток до его чтения. Я пробовал PassThrough, through. through2, но получили разные результаты, которые он в основном висит, и я не могу понять, что делать, и шаги для отладки. Я открыт для всех альтернатив. Спасибо всем за понимание.

import multiparty from 'multiparty'
import {
  PassThrough
} from 'stream';
import through from 'through'
import through2 from 'through2'

export function promisedMultiparty(req) {
  return new Promise((resolve, reject) => {

    const form = new multiparty.Form()
    const form_files = []
    let q_str = ''

    form.on('field', (fieldname, value) => {
      if (value) q_str = appendQStr(fieldname, value, q_str)
    })

    form.on('part', async (part) => {
      if (part.filename) {

        const pass1 = new PassThrough() // this hangs at 10% 

        const pass2 = through(function write(data) { // this hangs from the beginning
            this.queue(data)
          },
          function end() {
            this.queue(null)
          })

        const pass3 = through2() // this hangs at 10%

        /* 
            // This way works for large files, but I want to defer 
            // invocation

            const form_data = new FormData()
            form_data.append(savepath, part, {
              filename,
            })

            const r = request.post(url, {
              headers: {
                'transfer-encoding': 'chunked'
              }
            }, responseCallback(resolve))
            r._form = form

        */

        form_files.push({
          part: part.pipe(pass1),
          // part: part.pipe(pass2),
          // part: part.pipe(pass3),
        })

      } else {
        part.resume()
      }
    })

    form.on('close', () => {
      resolve({
        fields: qs.parse(q_str),
        forms: form_files,
      })
    })

    form.parse(req)
  })
}

ps Конечно, название может быть лучше, если кто-то может использовать правильные термины, пожалуйста. Благодарю.

Ответы

Ответ 1

Я считаю, что это связано с тем, что вы не используете through2 правильно, то есть не на самом деле опустошаете буфер, когда он заполнен (почему он висит на 10% на больших файлах, но работает на меньших).

Я считаю, что такая реализация должна сделать это:

const pass2 = through2(function(chunk, encoding, next) {

   // do something with the data


   // Use this only if you want to send the data further to another stream reader 
   // Note - From your implementation you don't seem to need it
   // this.push(data)

   // This is what tells through2 it ready to empty the 
   //  buffer and read more data
   next();
})