2D+3D捕获策略
请注意,如果您不关心颜色信息,请直接跳过本章节,查看下一章节: 根据捕获速度选择 3D 和 2D 的设置 。
单品拣选(piece-picking)应用中常用的许多检测算法依赖于 2D 数据来识别要拾取的对象。在本文中,我们将深入探讨获取 2D 信息的不同方法、它们的优缺点以及外部照明条件。我们还会讨论各种 2D-3D 方法、它们的数据质量以及它们如何影响周期时间。
获取2D数据有两种方法:
通过
camera.capture(Zivid::Settings2D).imageRGBA()
进行单独的 2D 捕获,请参阅 2D图像捕获流程 。3D 捕获
camera.capture(Zivid::Settings).pointCloud.copyImageRGBA()
中的一部分,请参阅 点云捕获过程 。
使用哪种方法取决于您的要求和机器视觉流程。我们通常建议使用单独的 2D 捕获,因为它可以利用多线程和优化调度。利用 3D 捕获中的 2D 数据更简单,但您可能需要牺牲速度才能获得所需的 2D 质量。
小技巧
当您单独捕获 2D 时,您应该在 3D 捕获中禁用 RGB。这可以节省采集和处理时间。通过将 Sampling::Color
设置为 disabled
来禁用 3D 捕获中的 RGB。
- 我们的建议:
单独的全分辨率 2D 捕获并打开投影仪。
不包含颜色数据的子采样 3D 捕获。
相机分辨率和一对一映射
对于精确的 2D 分割和检测,高分辨率彩色图像很有帮助。 Zivid 2+ 具有 5 MPx 成像传感器,而 Zivid 2 具有 2.3 MPx 传感器。下表显示了不同相机的 2D 和 3D 捕获的分辨率输出。
2D 捕获 |
Zivid 2+ |
Zivid 2 |
---|---|---|
全分辨率 |
2448×2048 |
1944×1200 |
2x2 子采样 |
1224×1024 |
972×600 |
4x4 子采样 |
612×512 |
不支持 |
3D 捕获 |
Zivid 2+ |
Zivid 2 |
---|---|---|
全分辨率 |
2448×2048 |
1944×1200 |
2x2 子采样 |
1224×1024 |
972×600 |
4x4 子采样 |
612×512 |
不支持 |
When performing a capture2D3D()
capture the result is a frame that contains both 2D and 3D data.
2D data can be extracted in two ways:
frame.frame2D().imageSRGB()
This is the same as if you would have captured 2D independently.
frame.pointCloud().copyImageSRGB()
This will ensure 1-to-1 mapping, even in cases where the settings define that 2D and 3D should have different resolutions.
Output resolution of 2D captures is controlled via the Settings2D::Sampling::Pixel
setting and the output resolution of 3D captures via the combination of the Settings::Sampling::Pixel
and the Settings::Processing::Resampling
settings.
See Pixel Sampling (2D), Pixel Sampling (3D) and Resampling(重采样).
如上所述,分割和检测通常需要高分辨率 2D 数据。例如,我们推荐的 Consumer Goods(消费品) Z2+ MR130 Quality
预设使用的 Sampling::Pixel
设置为 by2x2
。在这种情况下,我们应该:
对 3D 数据进行上采样,以恢复 1:1 对应关系,或
Map 2D indices to the indices in the subsampled 3D data, or
Get 2D data from the pointcloud via
frame.pointCloud().copyImageSRGB()
重采样(Resampling)
为了匹配 2D 捕获的分辨率,只需应用取消子采样的上采样即可。这样操作仍保留了子采样捕获的速度优势。例如:
auto settings2D = Zivid::Settings2D{
Zivid::Settings2D::Acquisitions{ Zivid::Settings2D::Acquisition{} },
Zivid::Settings2D::Sampling::Pixel::all,
};
auto settings = Zivid::Settings{
Zivid::Settings::Engine::phase,
Zivid::Settings::Acquisitions{ Zivid::Settings::Acquisition{} },
Zivid::Settings::Sampling::Pixel::blueSubsample2x2,
Zivid::Settings::Sampling::Color::disabled,
Zivid::Settings::Processing::Resampling::Mode::upsample2x2,
};
settings_2d = zivid.Settings2D()
settings_2d.acquisitions.append(zivid.Settings2D.Acquisition())
settings_2d.sampling.pixel = zivid.Settings2D.Sampling.Pixel.all
settings = zivid.Settings()
settings.engine = "phase"
settings.acquisitions.append(zivid.Settings.Acquisition())
settings.sampling.pixel = zivid.Settings.Sampling.Pixel.blueSubsample2x2
settings.sampling.color = zivid.Settings.Sampling.Color.disabled
settings.processing.resampling.mode = zivid.Settings.Processing.Resampling.Mode.upsample2x2
更多相关的详细信息,请参阅 Resampling(重采样) 。
另一种选择是将 2D 索引映射到子采样 3D 数据中的索引。此方法稍微复杂一些,但可能更高效。点云可以保持子采样,因此消耗更少的内存和处理能力。
To establish a correlation between the full-resolution 2D data and the subsampled point cloud, a specific mapping technique is required. This process involves extracting RGB values from the pixels that correspond to the Blue or Red pixels from the Bayer grid.
Zivid::Experimental::Calibration::pixelMapping(camera, settings);
可用于获取执行此映射所需的参数。以下是使用此函数的示例。
const auto pixelMapping = Zivid::Experimental::Calibration::pixelMapping(camera, settings);
std::cout << "Pixel mapping: " << pixelMapping << std::endl;
cv::Mat mappedBGR(
fullResolutionBGR.rows / pixelMapping.rowStride(),
fullResolutionBGR.cols / pixelMapping.colStride(),
CV_8UC3);
std::cout << "Mapped width: " << mappedBGR.cols << ", height: " << mappedBGR.rows << std::endl;
for(size_t row = 0; row < static_cast<size_t>(fullResolutionBGR.rows - pixelMapping.rowOffset());
row += pixelMapping.rowStride())
{
for(size_t col = 0; col < static_cast<size_t>(fullResolutionBGR.cols - pixelMapping.colOffset());
col += pixelMapping.colStride())
{
mappedBGR.at<cv::Vec3b>(row / pixelMapping.rowStride(), col / pixelMapping.colStride()) =
fullResolutionBGR.at<cv::Vec3b>(row + pixelMapping.rowOffset(), col + pixelMapping.colOffset());
}
}
return mappedBGR;
pixel_mapping = calibration.pixel_mapping(camera, settings)
return rgba[
int(pixel_mapping.row_offset) :: pixel_mapping.row_stride,
int(pixel_mapping.col_offset) :: pixel_mapping.col_stride,
0:3,
]
备注
如果您使用内部函数并且 2D 和 3D 捕获具有不同的分辨率,请确保正确地使用它们。请参阅 相机内参 了解更多信息。
关于外部光源的考量
2D 捕获的理想光源是强光,因为它可以减少环境光变化的影响,并且是漫射光,因为这会限制 光晕现象 。对于 Zivid 相机,此光源来自内部投影仪。因此,您不需要在机器人单元中使用任何额外的照明。
使用内置投影仪作为光源时,可能会出现光晕现象。倾斜相机、更改背景或调整 2D 采集设置可以减轻光晕效果。
环境光变化(例如从白天到夜晚的过渡、门的打开和关闭或屋顶照明的变化)引起的曝光变化对 2D 和 3D 数据的影响不同。对于 2D 数据,它们会影响分割性能,尤其是在特定数据集上进行训练时。对于 3D 数据,由于噪声水平不同,曝光变化可能会影响点云的完整性。Zivid 相机对此类曝光变化非常稳健。
下表总结了使用 Zivid 相机在 2D 质量方面的优缺点。
内置投影仪 |
|
---|---|
机器人单元设置 |
简单 |
对环境光变化的适应能力 |
强 |
2D图像出现光晕现象 |
可能 |
需要设置 2D 白平衡 |
否 |
捕获策略
根据您首先需要哪种数据(2D 或 3D),有三种捕获策略。
2D数据先于3D数据
2D数据作为如何使用3D数据的一部分
2D数据在使用3D数据之后
您应该采用哪种策略取决于您的机器视觉算法和流程。我们建议先处理 2D 数据,然后再处理 3D 数据(先进行 2D 捕获,然后禁用颜色信息进行 3D 捕获)。这种方法允许您在捕获 3D 数据的同时处理彩色图像(例如分割),从而实现系统级的最佳拾取率。
下面我们总结了不同策略的表现。如需更深入地了解和全面的 ZividBenchmarks,请参阅 2D+3D捕获策略 。
Following is a table showing actual measurements on different hardware.
- Zivid 2+
- Zivid 2
(
Z2 M70 Fast
)
小技巧
如需在 PC 上测试不同的 2D-3D 策略,您可以运行 ZividBenchmark.cpp 示例,并使用从 YML 文件加载的设置。您可以在 示例 页面选择 C++ 选项查看说明。
Cameras
Configurations
Display Options
Capture 2D + 3D
2+R | ||
---|---|---|
High-end NVIDIA | ||
2D | 3D | |
Capture 2D and then 3D | ||
Projector On for 2D | ||
Capture 3D and then 2D | ||
Capture 3D including 2D |
在下一章节中,我们将介绍如何 基于捕获速度选择3D和2D设置 。
版本历史
SDK |
变更 |
---|---|
2.12.0 |
对于 Zivid 2+,2D 捕获的采集时间最多可减少 50%,3D 捕获的采集时间最多可减少 5%。请注意,Zivid One+已达到其生命周期终点,不再提供支持。 |
2.11.0 |
添加了对 |