ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 18.10.2024
Просмотров: 8
Скачиваний: 0
ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.
…………………………………………..
5 – FIVTH PAGE
2.2 Incremental down-sampling and merging.
As it was said in the introduction, in most situations, the acquisition of a single point cloud from one point of view cannot produce a complete 3D reconstruction of an object. Multiple point clouds, collected with different sensor poses are typically required.
(2.2 Инкрементная субдискретизация и слияние Как было сказано во введении, в большинстве ситуаций получение одного облака точек с одной точки зрения не может дать полную 3D-реконструкцию объекта. Обычно требуется несколько облаков точек, собранных с помощью датчиков с разными положениями.)
The alignment/registration process of bringing the multiple point clouds into a common reference system is quite straightforward, when the accurate position and orientation of each sensor pose are available, which is always the case for robot-manipulated 3D scanners.
(Процесс выравнивания/регистрации для приведения нескольких облаков точек в общую систему отсчета довольно прост, когда доступны точное положение и ориентация каждого положения датчика, что всегда имеет место для роботизированных 3D-сканеров.)
In this work, it is assumed that the sensor data origin is accurately calibrated as robot Tool Central Point (TCP) and all collected point clouds get registered into the manipulation robot base reference system, using the sensor pose (position Cartesian coordinates and orientation Euler angles), obtained as feedback from the robot controller.
(В этой работе предполагается, что источник данных датчика точно откалиброван как центральная точка инструмента робота (TCP), и все собранные облака точек регистрируются в базовой системе отсчета манипуляционного робота с использованием положения датчика (декартовы координаты положения и углы Эйлера ориентации). ), полученный как обратная связь от контроллера робота.)
Therefore, the resulting merged point cloud may be intended as the set of all points collected through all sensor views. At first glance, it would be possible to think the sensor should be positioned at a distance from an object surface that allows capturing as many points as are needed to reach the desired target density.
(Таким образом, результирующее объединенное облако точек можно рассматривать как набор всех точек, собранных с помощью всех представлений датчиков. На первый взгляд можно было бы подумать, что датчик должен располагаться на таком расстоянии от поверхности объекта, которое позволяет захватывать столько точек, сколько необходимо для достижения желаемой плотности цели.)
If such target density is denoted with ρ∗, expressed as number of points per surface unit (e.g. points/mm2), the optimum sensor view distance (dg∗) or view radius (rg∗) can be extrapolated from Eqs. 7 and 8, for depth cameras and laser scanners respectively:
(Если такая целевая плотность обозначается ρ*, выраженной как количество точек на единицу поверхности (например, точек/мм2), оптимальное расстояние обзора датчика (dg*) или радиус обзора (rg*) можно экстраполировать из уравнений. 7 и 8, для камер глубины и лазерных сканеров соответственно:))
The subscript “g” is given to dg∗ and rg∗, since they purely derive from geometrical considerations. Placing a depth cameras at distance dg∗ or a laser scanner at radial distance rg∗ allows reconstructing the object geometry exactly at target density only when a planar (for depth cameras) or a spherical surface (for laser scanners) is the surface under inspection.
(Нижний индекс «g» дается dg∗ и rg∗, поскольку они выводятся исключительно из геометрических соображений. Размещение камеры глубины на расстоянии dg∗ или лазерного сканера на радиальном расстоянии rg∗ позволяет восстановить геометрию объекта точно с плотностью мишени только в том случае, когда контролируемой поверхностью является плоская (для камер глубины) или сферическая поверхность (для лазерных сканеров).)
This is far from any real applications, when a generic surface is to be mapped. Moreover, most manufacturers of 3D scanners specify that the sampling inaccuracy/noise of their sensors depends on the distance of the captured points.
(Это далеко не все реальные приложения, когда нужно нанести на карту общую поверхность. Более того, большинство производителей 3D-сканеров указывают, что погрешность/шум выборки их датчиков зависит от расстояния до захваченных точек.)
Assuming the expected measurement noise of a 3D scanner is defined as a percentage of sampling distance (ε = noise/d or ε = noise/r), it is possible to compute the maximum distance that allows mapping a surface with measurement noise smaller than or equal to n∗
(Предполагая, что ожидаемый шум измерения 3D-сканера определяется в процентах от расстояния выборки (ε = шум/d или ε = шум/r), можно вычислить максимальное расстояние, которое позволяет отображать поверхность с шумом измерения меньше или равно n∗)
…………………………………..
6 – SIXTH PAGE
These limit values are denoted with the “n” subscript, since they originate from measurement noise considerations.
(Эти предельные значения обозначены нижним индексом «n», поскольку они исходят из соображений шума измерения.)
Thus, in practical application, the optimum view distance (d∗ or r∗) is chosen as the lower value between dg∗ and dn∗ (d∗ = min(dg∗, dn∗)) or rg∗ and rn∗ (r∗ = min(rg∗, rn∗)).
(Таким образом, на практике оптимальное расстояние обзора (d∗ или r∗) выбирается как меньшее значение между dg∗ и dn∗ (d∗ = min(dg∗, dn∗)) или rg∗ и rn∗ (r ∗ = min(rg∗, rn∗)).)
Some sensors with high values of percentual noise (ε) force mapping objects/environments at distances that lead to sampling densities much higher than the target density (e.g. when dn∗ ≪ dg∗ or rn∗ ≪ rg∗).
(Некоторые датчики с высокими значениями процентного шума (ε) вынуждают отображать объекты/среды на расстояниях, которые приводят к плотности выборки, намного превышающей целевую плотность (например, когда dn∗ ≪ dg∗ или rn∗ ≪ rg∗).)
Moreover, due to the overlap between the field of view of the 3D scanning sensor positioned at different locations, simply appending all collected points to a comprehensive point cloud may lead.
(Более того, из-за перекрытия полей зрения датчика 3D-сканирования, расположенного в разных местах, простое добавление всех собранных точек в комплексное облако точек может привести к)
Int J Adv Manuf Technol (2021) 116:1895–1911 1899 to vast regions with too many redundant points. This means that many more points, compared to those required to fulfil the target sampling density, are collected in some regions of an object, making the merged point cloud difficult to process in timely fashions and to store in physical memories.
(Int J Adv Manuf Technol (2021) 116:1895–1911 1899 в обширные регионы со слишком большим количеством избыточных точек. Это означает, что в некоторых областях объекта собирается намного больше точек по сравнению с теми, которые необходимы для достижения целевой плотности выборки, что затрудняет своевременную обработку объединенного облака точек и сохранение в физической памяти.)
For these reasons, solutions to down-sample the collected points and obtain a uniform point density across the resulting point cloud are typically found in many works. Although down-sampling algorithms have been presented elsewhere, it is worth describing what down-sampling and merging algorithms were implemented in this work, for the sake of making the entire incremental 3D reconstruction pipeline as clear as possible.
(По этим причинам во многих работах обычно встречаются решения по уменьшению числа собранных точек и получению равномерной плотности точек в результирующем облаке точек. Хотя алгоритмы понижающей дискретизации были представлены в другом месте, стоит описать, какие алгоритмы понижающей дискретизации и слияния были реализованы в этой работе, чтобы сделать весь конвейер инкрементной 3D-реконструкции как можно более понятным.)
The new point cloud is intentionally assumed to have a point density much higher than the target sampling density and captured with a noticeable spatial overlap with the field of view of the sensor in O1 and O2.
(Преднамеренно предполагается, что новое облако точек имеет плотность точек, намного превышающую целевую плотность выборки, и захвачено с заметным пространственным перекрытием с полем зрения датчика в O1 и O2.)
Therefore, referring to this scene, it is possible to describe the process of merging the jth point cloud data set with the initial state point cloud, originating from all previously acquired data sets (from the 1st to the (j − 1)th sensor pose).
(Поэтому, обращаясь к этой сцене, можно описать процесс слияния j-го набора данных облака точек с начальным облаком точек, происходящим из всех ранее полученных наборов данных (от 1-й до (j - 1)-й позы датчика). ).
The average distance between any point of an ideal point cloud, which maps the surface of an object with the target density (ρ∗), and its closest neighbour point should be equal to l = ρ∗−1/2. Indeed, any square of area l2 lying on the surface of the object should contain only one of the sampled points.
(Среднее расстояние между любой точкой идеального облака точек, отображающего поверхность объекта с заданной плотностью (ρ∗), и его ближайшей соседней точкой должно быть равно l = ρ∗−1/2. Действительно, любой квадрат площади l2, лежащий на поверхности объекта, должен содержать только одну из точек дискретизации.)
This assumes that approximating the object surface to a plane is acceptable, in the neighbour- hood of the square.
(Это предполагает, что приближение поверхности объекта к плоскости допустимо в окрестности квадрата.)
In these terms, down-sampling a point cloud to meet the target density requirement would consist in finding all squares with side equal to l that lie on the reconstructed object surface and contain more than one sam- pled point.
(В этих терминах субдискретизация облака точек для удовлетворения требования целевой плотности будет заключаться в нахождении всех квадратов со стороной, равной l, которые лежат на реконструированной поверхности объекта и содержат более одной выборочной точки.)
Wherever multiple points are detected within a square, only one point should be kept as a representative of them.
(Везде, где в квадрате обнаруживается несколько точек, в качестве их представителя должна быть сохранена только одна точка.)
The area of the largest planar surface that can be inscribed in a cube is √2 times larger than area of the square face of the cube.
(Площадь наибольшей плоской поверхности, которую можно вписать в куб, в √2 раза больше площади квадратной грани куба.)
Therefore, in this work the volume containing the points of both the initial and new cloud is partitioned with cubes of side l∗ = √2ρ∗−1/2. Indicating with Pi≡ [pix, piy, piz] the ith point of the initial state cloud and with Qk≡ [qkx, qky, qkz] the kth point of the new cloud, being k ∈ N | 1 ≤ k ≤ (Rh ∗ Rv), the local normals (−→ni and −→nk) are computed as described in Section 2.1 through fitting a local plane to the six closest neighbouring points, taken from the whole set of points (old and new), before the down-sampling of the new cloud is performed.
(Поэтому в данной работе объем, содержащий точки как исходного, так и нового облака, разбивается кубами со стороной l∗ = √2ρ∗−1/2. Указание с помощью Pi≡ [pix, piy, piz] i-й точки облака начального состояния и с помощью Qk≡ [qkx, qky, qkz] k-й точки нового облака, так как k ∈ N | 1 ≤ k ≤ (Rh ∗ Rv), локальные нормали (−→ni и −→nk) вычисляются, как описано в Раздел 2.1 путем подгонки локальной плоскости к шести ближайшим соседние точки, взятые из всего набора точек (старые и новое), до того, как будет проведена субдискретизация нового облака. выполнено.)
7 – SEVENTH PAGE
Thus, the stack indices, along the x, y and z direction (aix, aiy, aiz, bkx, bky and bkz ∈ Z), of the respective cubes (Ai and Bk) that contain the two points are calculated, dividing their Cartesian coordinates by l∗ and rounding to the closest integer numbers.
(Таким образом, вычисляются стековые индексы вдоль направления x, y и z (aix, aiy, aiz, bkx, bky и bkz ∈ Z) соответствующих кубов (Ai и Bk), содержащих две точки, путем деления их декартовых координаты на l∗ и округлением до ближайших целых чисел.)
As it is illustrated in Eqs. 10 and 11, working with arrays, a computer can efficiently compute the set of all cubes comprising the initial state points (A) and the set of cubes for new points (B).
(Как показано в уравнениях. 10 и 11, работая с массивами, компьютер может эффективно вычислить множество всех кубов, составляющих точки начального состояния (А), и множество кубов для новых точек (В).)
Through the intersection of A and B (12), it possible to identify the set C of cubes that contain both initial state points and new points.
(Через пересечение A и B (12) можно определить множество кубов C, содержащих как точки исходного состояния, так и новые точки.)
The set Aold (subset of A), which contains cubes with only one initial state point, is defined as the difference between set A and set C (13). Finally, the set Bnew (subset of B), which contains cubes with only new points, is defined as the difference between set B and set C (14).
(Множество Aold (подмножество A), которое содержит кубы только с одной точкой начального состояния, определяется как разность между множеством A и множеством C (13). Наконец, множество Bnew (подмножество B), содержащее кубы только с новыми точками, определяется как разность между множеством B и множеством C (14).)
The cubes belonging to these sets are represented in Fig. 2b. The merged initial state point cloud is assumed to be already down-sampled, since it is intended to be the result of the down-sampling and merging operations performed right after the acquisition of the (j−1)th point cloud.
(Кубы, принадлежащие этим наборам, представлены на рис. 2б. Предполагается, что объединенное облако точек начального состояния уже подвергнуто субдискретизации, поскольку предполагается, что оно является результатом операций субдискретизации и слияния, выполняемых сразу после получения (j-1)-го облака точек.)