Skip to main content
Version: Next

数据解析

*在线运行 vLLM 入门教程:零基础分步指南

模块内容

*class***vllm.multimodal.parse.**ModalityDataItems**(*data: _T***,*modality:*str**)**

[source]

表示 MultiModalDataItems 中某个模态的数据项。

*abstract***get_count**()**→**int

[source]

获取数据项的数量。

*abstract***get**(***index:*int)**→ _I

[source]

通过索引获取数据项。

get_all**()**→list[_I]

[source]

获取所有数据项。

*abstract***get_processor_data**()**Mapping[str,object]**

[source]

获取传递给 HF 处理器的数据。

*abstract***get_passthrough_data**()**Mapping[str,object]**

[source]

获取直接传递给模型的数据。

*class***vllm.multimodal.parse.**ProcessorBatchItems**(*data: _T***,*modality:*str**)**

[source]

数据项以列表形式排列的基类。

get_count**()**→int

[source]

获取数据项的数量。

get**(*index:*int)**→ _T

[source]

通过索引获取数据项。

get_processor_data**()**→Mapping[str,object]

[source]

获取传递给 HF 处理器的数据。

get_passthrough_data**()**→Mapping[str,object]

[source]

获取直接传递给模型的数据。

*class***vllm.multimodal.parse.**EmbeddingItems**(*data: _T***,*modality:*str**)**

[source]

数据项表示为批处理嵌入张量或嵌入张量列表(每个数据项一个)的基类。

get_count**()**→int

[source]

获取数据项的数量。

get**(*index:*int)**→torch.Tensor

[source]

通过索引获取数据项。

get_processor_data**()**→Mapping[str,object]

[source]

获取传递给 HF 处理器的数据。

get_passthrough_data**()**→Mapping[str,object]

[source]

获取直接传递给模型的数据。

*class***vllm.multimodal.parse.**DictEmbeddingItems**(*data:Mapping[str,torch.Tensor]*,*modality:*str,*requiredfields:**set[str]*,*fields_factory:Callable[[*Mapping[str,torch.Tensor*]],Mapping[str,MultiModalFieldConfig_]]***)**

[source]

数据项表示为张量字典的基类。

通常,字典键对应于 HF 处理器的输出。

get_count**()**→int

[source]

获取数据项的数量。

get**(*index:*int)**→Mapping[str,torch.Tensor]

[source]

通过索引获取数据项。

get_processor_data**()**→Mapping[str,object]

[source]

获取传递给 HF 处理器的数据。

get_passthrough_data**()**→Mapping[str,object]

[source]

获取直接传递给模型的数据。

*class***vllm.multimodal.parse.**AudioProcessorItems**(*data:Sequence[list[float] |numpy.ndarray|torch.Tensor]*)**

[source]

*class***vllm.multimodal.parse.**AudioEmbeddingItems**(*data:torch.Tensor|list[torch.Tensor]*)**

[source]

*class***vllm.multimodal.parse.**ImageSize**(*width***,*height***)**

[source]

width***:***int

[source]

字段编号 0 的别名。

height***:***int

[source]

字段编号 1 的别名。

*class***vllm.multimodal.parse.**ImageProcessorItems**(*data:Sequence[Image|numpy.ndarray|torch.Tensor]*)**

[source]

*class***vllm.multimodal.parse.**ImageEmbeddingItems**(*data:torch.Tensor|list[torch.Tensor]*)**

[source]

*class***vllm.multimodal.parse.**VideoProcessorItems**(*data:Sequence[list[PIL.Image.Image] |numpy.ndarray|torch.Tensor|list[numpy.ndarray] |list[torch.Tensor]]*)**

[source]

*class***vllm.multimodal.parse.**VideoEmbeddingItems**(*data:torch.Tensor|list[torch.Tensor]*)**

[source]

*class***vllm.multimodal.parse.**MultiModalDataItems**(*dict****=None*,*/*,*****kwargs***)**

[source]

与 MultiModalDataDict 类似,但经过规范化,使得每个条目对应一个列表。

get_count**(*modality:*str,*******,*strict:_bool _=* *True***)**→**int

[source]

获取属于某个模态的数据项的数量。

如果 strict=False,即使未找到模态,也返回 0 而不是抛出 KeyError

get_all_counts**()**→Mapping[str,int]

[source]

获取每个模态的数据项数量。

get_items**(*modality:*str,*typ:type[D] |**tuple[type_[_D], ...]*)**→ _D**

[source]

获取属于某个模态的数据项,并要求它们属于特定类型。

*class***vllm.multimodal.parse.**MultiModalDataParser**(*******,*targetsr:**float|None _=* *None***)**

[source]

解析 MultiModalDataDict  到 MultiModalDataItems 中。

参数:

target_sr (float, 可选) – 启用自动重采样,将音频项调整为模型期望的采样率。