c# pdf reader table : Delete pages from pdf document SDK software service wpf winforms windows dnn SzeliskiBook_20100903_draft37-part611

7.2 Two-frame structure from motion
349
relationships gives us the epipolar line in the first image as l
0
=E
T
^x
1
and e
0
as the zero-
value right singular vector of E.
Given this fundamental relationship (7.10), how can we use it to recover the camera
motion encoded in the essential matrix E? If we have N corresponding measurements
f(x
i0
;x
i1
)g, wecanform N homogeneous equations inthe nineelements of E = fe
00
:::e
22
g,
x
i0
x
i1
e
00
+ y
i0
x
i1
e
01
+ x
i1
e
02
+
x
i0
y
i1
e
00
+
y
i0
y
i1
e
11
+
y
i1
e
12
+
x
i0
e
20
+
y
i0
e
21
+
e
22
=
0
(7.13)
where x
ij
=(x
ij
;y
ij
;1). This can be written more compactly as
[x
i1
x
T
i0
]  E = Z
i
E = z
i
f = 0;
(7.14)
where   indicates an element-wise multiplication and summationof matrix elements, and z
i
and f are the rasterized (vector) forms of the Z
i
= ^x
i1
^x
T
i0
and E matrices.
2
Given N  8
such equations, we cancompute an estimate (upto scale) for the entries inE using an SVD.
In the presence of noisy measurements, how close is this estimate to being statistically
optimal? If you look at the entries in (7.13), you can see that some entries are the products
of image measurements such as x
i0
y
i1
and others are direct image measurements (or even
the identity). If the measurements have comparable noise, the terms that are products of
measurements have their noise amplified by the other element in the product, which can lead
to very poor scaling, e.g., aninordinately large influence of points with large coordinates (far
away from the image center).
In order to counteract this trend, Hartley(1997a) suggests that the point coordinates
should be translated and scaled so that their centroid lies at the origin and their variance
is unity, i.e.,
~x
i
=
s(x
i
x
)
(7.15)
~y
i
=
s(x
i
y
)
(7.16)
such that
P
i
~x
i
=
P
i
~y
i
=0 and
P
i
~x
2
i
+
P
i
~y
2
i
=2n, where n is the number of points.
3
Once the essential matrix
~
Ehas been computed from the transformed coordinates
f(~x
i0
;~x
i1
)g, where ~x
ij
=T
j
^x
ij
,the original essential matrix E can be recovered as
E= T
1
~
ET
0
:
(7.17)
WeusefinsteadofetodenotetherasterizedformofEtoavoidconfusionwiththeepipolese
j
.
3
Moreprecisely,Hartley(1997a)suggests scaling thepoints“so thattheaveragedistancefrom theorigin isequal
to
p
2” but the heuristic of unit variance is faster to compute (does not require per-point square roots) and should
yield comparableimprovements.
Delete pages from pdf document - remove PDF pages in C#.net, ASP.NET, MVC, Ajax, WinForms, WPF
Provides Users with Mature Document Manipulating Function for Deleting PDF Pages
delete pages pdf preview; delete page from pdf file online
Delete pages from pdf document - VB.NET PDF Page Delete Library: remove PDF pages in vb.net, ASP.NET, MVC, Ajax, WinForms, WPF
Visual Basic Sample Codes to Delete PDF Document Page in .NET
acrobat extract pages from pdf; delete pdf pages in reader
350
Computer Vision: Algorithms and Applications (September 3, 2010 draft)
In his paper,Hartley(1997a) compares the improvement due to his re-normalization strategy
to alternative distance measures proposed by others such asZhang (1998a,b) and concludes
that his simple re-normalization in most cases is as effective as (or better than) alternative
techniques. TorrandFitzgibbon (2004) recommend a variant on this algorithm where the
norm of the upper 2 2 sub-matrix of E is set to 1 and show that it has even better stability
with respect to 2D coordinate transformations.
Once anestimate for the essential matrix E has been recovered, the direction of the trans-
lationvector t canbe estimated. Note that the absolute distance between the two cameras can
never be recovered from pure image measurements alone, regardless of how many cameras
or points are used. Knowledge about absolute camera and point positions or distances, of-
ten called ground control points in photogrammetry, is always required to establish the final
scale, position, and orientation.
To estimate this direction
^
t, observe that under ideal noise-free conditions, the essential
matrix E is singular, i.e.,
^
t
T
E= 0. This singularity shows up as a singular value of 0 when
an SVD of E is performed,
E= [
^
t]
R= UV
T
=
h
u
0
u
1
^
t
i
2
6
4
1
1
0
3
7
5
2
6
4
v
T
0
v
T
1
v
T
2
3
7
5
(7.18)
WhenE is computedfrom noisy measurements, the singular vector associatedwiththe small-
est singular value gives us
^
t. (The other two singular values should be similar but are not, in
general, equal to1 because E is only computed up to an unknown scale.)
Because E is rank-deficient, it turns outthatweactuallyonlyneedsevencorrespondences
of the form of Equation(7.14) insteadof eighttoestimatethis matrix(Hartley1994a;Torrand
Murray 1997; Hartleyand Zisserman2004).(Theadvantageofusingfewercorrespondences
inside a RANSAC robust fitting stage is that fewer random samples need to be generated.)
From this set of seven homogeneous equations (which we can stack into a 7  9 matrix for
SVD analysis), we can find two independent vectors, say f
0
and f
1
such that z
i
f
j
=0.
These two vectors can be converted back into 3  3 matrices E
0
and E
1
,which span the
solution space for
E= E
0
+(1   )E
1
:
(7.19)
To find the correct value of , we observe that E has a zero determinant, since it is rank
deficient, and hence
detjE
0
+(1   )E
1
j= 0:
(7.20)
This gives us a cubic equation in , which has either one or three solutions (roots). Substitut-
ing these values into (7.19) to obtainE, we cantest this essential matrixagainst other unused
feature correspondences to select the correct one.
C# PDF Page Insert Library: insert pages into PDF file in C#.net
how to merge PDF document files by C# code, how to rotate PDF document page, how to delete PDF page using C# .NET, how to reorganize PDF document pages and how
add and delete pages in pdf online; delete pages from a pdf
C# PDF File & Page Process Library SDK for C#.net, ASP.NET, MVC
Page Process. File: Merge, Append PDF Files. File: Split PDF Document. File: Compress PDF. Page: Create Thumbnails. Page: Insert PDF Pages. Page: Delete Existing
add and delete pages from pdf; delete pages from pdf file online
7.2 Two-frame structure from motion
351
Once
^
thas been recovered, how can we estimate the corresponding rotation matrix R?
Recall that the cross-product operator [
^
t]
(2.32) projects a vector onto a set of orthogonal
basis vectors that include
^
t, zeros out the
^
tcomponent, and rotates the other two by 90
,
[
^
t]
=SZR
90
S
T
=
h
s
0
s
1
^
t
i
2
6
4
1
1
0
3
7
5
2
6
4
 1
1
0
1
3
7
5
2
6
4
s
T
0
s
T
1
^
t
T
3
7
5
; (7.21)
where
^
t= s
0
s
1
.From Equations (7.18 and7.21), we get
E= [
^
t]
R= SZR
90
S
T
R= UV
T
;
(7.22)
from which we can conclude that S = U. Recall that for a noise-free essential matrix,
( = Z), and hence
R
90
U
T
R= V
T
(7.23)
and
R= UR
T
90
V
T
:
(7.24)
Unfortunately, we only know bothE and
^
tup to a sign. Furthermore, the matrices U and V
are notguaranteed to be rotations (you canflip both their signs and still get a validSVD). For
this reason, we have to generate all four possible rotation matrices
R= UR
T
90
V
T
(7.25)
and keep the two whose determinant jRj = 1. To disambiguate between the remaining pair
of potential rotations, which form a twisted pair (HartleyandZisserman2004, p. 240), we
need to pair them with both possible signs of the translation direction 
^
tand select the
combination for which the largest number of points is seen in front of both cameras.
4
The property that points must lie in front of the camera, i.e., at a positive distance along
the viewingrays emanatingfrom thecamera, is known aschirality (Hartley1998). Inaddition
todetermining the signs of the rotation andtranslation, as described above, the chirality(sign
of the distances) of the points in a reconstruction can be used inside a RANSAC procedure
(along with the reprojectionerrors) todistinguishbetweenlikely andunlikelyconfigurations.
5
Chirality can also be used to transform projective reconstructions (Sections7.2.1 and7.2.2)
into quasi-affine reconstructions (Hartley1998).
The normalized “eight-point algorithm” (Hartley1997a) described above is not the only
way toestimatethecamera motionfrom correspondences. Variantsinclude usingseven points
Inthenoise-freecase,asinglepointsuffices. Itissafer,however,totestallorasufficientsubsetofpoints,
downweighting theones that lieclose to theplaneatinfinity, for which it is easy to get depth reversals.
Notethataspointsgetfurtherawayfromacamera,i.e.,closertowardtheplaneatinfinity,errorsinchirality
become morelikely.
VB.NET PDF Page Insert Library: insert pages into PDF file in vb.
Able to add and insert one or multiple pages to existing adobe PDF document in VB.NET. Add and Insert Multiple PDF Pages to PDF Document Using VB.
delete pages pdf online; cut pages from pdf file
C# PDF Page Extract Library: copy, paste, cut PDF pages in C#.net
Create the new document with 3 pages. String outputFilePath = Program.RootPath + "\\" Output.pdf"; newDoc.Save(outputFilePath);
delete page in pdf reader; cut pages out of pdf online
352
Computer Vision: Algorithms and Applications (September 3, 2010 draft)
e
x
i0
x
i1
Figure 7.4 Pure translational camera motion results in visual motion where all the points
move towards (or away from) a common focus of expansion (FOE) e. They therefore satisfy
the triple product condition (x
0
;x
1
;e) = e  (x
0
x
1
)= 0.
while enforcing the rank two constraint in E (7.197.20) and a five-point algorithm that
requires finding the roots of a 10th degree polynomial (Nist´er2004). Since such algorithms
use fewer points to compute their estimates, they are less sensitive to outliers when used as
part of a random sampling (RANSAC) strategy.
Pure translation (known rotation)
In the case where we know the rotation, we can pre-rotate the points in the second image to
match the viewing direction of the first. The resulting set of 3D points all move towards (or
away from) the focus of expansion (FOE), as shown in Figure7.4.
6
The resulting essential
matrix E is (in the noise-free case) skew symmetric and so canbe estimated more directly by
setting e
ij
= e
ji
and e
ii
=0 in (7.13). Two points with non-zero parallax now suffice to
estimate the FOE.
Amore direct derivation of the FOE estimate can be obtained by minimizing the triple
product
X
i
(x
i0
;x
i1
;e)
2
=
X
i
((x
i0
x
i1
)e)
2
;
(7.26)
which is equivalent to finding the null space for the set of equations
(y
i0
y
i1
)e
0
+(x
i1
x
i0
)e
1
+(x
i0
y
i1
y
i0
x
i1
)e
2
=0:
(7.27)
Note that, as in the eight-point algorithm, it is advisable to normalize the 2D points to have
unit variance before computing this estimate.
In situations where a large number of points at infinity are available, e.g., when shooting
outdoor scenes or when the camera motion is smallcompared to distant objects, this suggests
an alternative RANSAC strategy for estimating the camera motion. First, pick a pair of
points to estimate a rotation, hoping that both of the points lie at infinity (very far from the
6
FansofStar Trek and Star Wars willrecognizethis as the“jumpto hyperdrive”visualeffect.
VB.NET PDF Page Extract Library: copy, paste, cut PDF pages in vb.
' Create the new document with 3 pages. Dim outputFilePath As String = Program.RootPath + "\\" Output.pdf" newDoc.Save(outputFilePath).
delete blank page from pdf; cut pages from pdf preview
C# Word - Delete Word Document Page in C#.NET
Delete Consecutive Pages from Word in C#. How to delete a range of pages from a Word document. How to delete several defined pages from a Word document.
delete a page from a pdf in preview; delete pages from pdf preview
7.2 Two-frame structure from motion
353
camera). Then, compute the FOE and check whether the residual error is small (indicating
agreement with this rotation hypothesis) and whether the motions towards or away from the
epipole (FOE) are all in the same direction (ignoring very small motions, which may be
noise-contaminated).
Pure rotation
The case of pure rotation results in a degenerate estimate of the essential matrix E and of
the translation direction
^
t. Consider first the case of the rotation matrix being known. The
estimates for the FOE will be degenerate, since x
i0
x
i1
,and hence (7.27), is degenerate.
Asimilar argument shows that the equations for the essential matrix (7.13) are also rank-
deficient.
This suggests that it might be prudent before computing a full essential matrix to first
compute a rotation estimate R using (6.32), potentially with just a small number of points,
and then compute the residuals after rotating the points before proceeding with a full E
computation.
7.2.1 Projective (uncalibrated) reconstruction
In many cases, such as whentrying to build a 3D model from Internet or legacy photos taken
by unknown cameras without any EXIF tags, we do not know ahead of time the intrinsic
calibration parameters associated with the input images. In such situations, we can still esti-
mate atwo-framereconstruction, although the truemetric structuremay not be available, e.g.,
orthogonal lines or planes in the world may not end up being reconstructed as orthogonal.
Consider the derivations we used to estimate the essential matrix E (7.107.12). In the
uncalibrated case, we do not know the calibrationmatrices K
j
,so wecannot use the normal-
ized ray directions
^
x
j
=K
1
j
x
j
.Instead, we have access only to the image coordinates x
j
,
and so the essential matrix (7.10) becomes
^x
T
1
E^x
1
=x
T
1
K
T
1
EK
1
0
x
0
=x
T
1
Fx
0
=0;
(7.28)
where
F = K
T
1
EK
1
0
=[e]
~
H
(7.29)
is called the fundamental matrix (Faugeras1992;Hartley,Gupta,andChang1992;Hartley
and Zisserman 2004).
Like the essential matrix, the fundamental matrix is (in principle) rank two,
F = [e]
~
H= UV
T
=
h
u
0
u
1
e
1
i
2
6
4
0
1
0
3
7
5
2
6
4
v
T
0
vT
1
e
T
0
3
7
5
:
(7.30)
C# PDF metadata Library: add, remove, update PDF metadata in C#.
C#.NET PDF SDK - Edit PDF Document Metadata in C#.NET. Allow C# Developers to Read, Add, Edit, Update and Delete PDF Metadata in .NET Project.
copy pages from pdf to new pdf; pdf delete page
C# PowerPoint - Delete PowerPoint Document Page in C#.NET
C#. How to delete a range of pages from a PowerPoint document. C#. How to delete several defined pages from a PowerPoint document.
delete page from pdf document; delete page from pdf preview
354
Computer Vision: Algorithms and Applications (September 3, 2010 draft)
Its smallest left singular vector indicates the epipole e
1
in the image 1 and its smallest right
singular vector is e
0
(Figure7.3). The homography
~
Hin (7.29), which in principle should
equal
~
H= K
T
1
RK
1
0
;
(7.31)
cannot be uniquely recovered from F , since any homography of the form
~
H
0
=
~
H+ ev
T
results in the same F matrix. (Note that [e]
annihilates any multiple of e.)
Any one of these valid homographies
~
Hmaps some plane in the scene from one image
to the other. It is not possible to tell in advance which one it is without either selecting four
or more co-planar correspondences to compute
~
Has part of the F estimation process (in a
manner analogous to guessing a rotation for E) or mapping all points in one image through
~
Hand seeing which ones line up withtheir correspondinglocations in the other.
7
In order to create a projective reconstruction of the scene, we can pick any valid homog-
raphy
~
H that satisfies Equation (7.29). For example, following a technique analogous to
Equations (7.187.24), we get
F = [e]
~
H= SZR
90
S
~
H= UV
T
(7.32)
and hence
~
H= UR
T
90
^
V
T
;
(7.33)
where
^
is the singular value matrix with the smallest value replaced by a reasonable alter-
native (say, the middle value).
8
We can then form a pair of camera matrices
P
0
=[Ij0] and P
0
=[
~
Hje];
(7.34)
from which a projective reconstruction of the scene can be computed using triangulation
(Section7.1).
While the projectivereconstructionmay notbeuseful in practice, itcanoftenbeupgraded
to an affine or metric reconstruction, as detailed below. Even without this step, however,
the fundamental matrix F can be very useful in finding additional correspondences, as they
must all lie on corresponding epipolar lines, i.e., any feature x
0
in image 0 must have its
correspondence lying onthe associatedepipolar line l
1
=F x
0
in image 1, assuming that the
point motions are due toa rigid transformation.
7
Thisprocess issometimes referredto asplaneplus parallax(Section2.1.5)(Kumar,Anandan,andHanna1994;
Sawhney 1994).
HartleyandZisserman(2004,p.237)recommendusing
~
H= [e]
F(LuongandVi´eville1996),whichplaces
the cameraon theplane at infinity.
7.2 Two-frame structure from motion
355
7.2.2 Self-calibration
The results of structure from motion computation are much more useful (and intelligible) if
ametric reconstruction is obtained, i.e., one in which parallel lines are parallel, orthogonal
walls are at right angles, and the reconstructed model is a scaled version of reality. Over
the years, a large number of self-calibration (or auto-calibration) techniques have been de-
veloped for converting a projective reconstruction into a metric one, which is equivalent to
recovering the unknown calibration matrices K
j
associated with each image (Hartleyand
Zisserman 2004; Moons, Van Gool, andVergauwen 2010).
In situations where certain additional information is known about the scene, different
methods may be employed. For example, if there are parallel lines in the scene (usually,
having several lines converge on the same vanishing point is good evidence), three or more
vanishing points, which are the images of points at infinity, can be used to establish the ho-
mography for the plane at infinity, from which focal lengths and rotations can be recovered.
If two or more finite orthogonal vanishing points have been observed, the single-image cali-
bration method based on vanishing points (Section6.3.2) can be used instead.
In the absence of suchexternal information, itis not possible to recover a fully parameter-
ized independent calibration matrix K
j
for each image from correspondences alone. To see
this, consider the set of all camera matrices P
j
=K
j
[R
j
jt
j
]projecting world coordinates
p
i
=(X
i
;Y
i
;Z
i
;W
i
)into screen coordinates x
ij
P
j
p
i
. Now consider transforming the
3Dscene fp
i
gthrough an arbitrary 4 4 projective transformation
~
H, yielding a new model
consisting of points p0
i
=
~
Hp
i
.Post-multiplying each P
j
matrix by
~
H
1
still produces the
same screen coordinates anda newset calibrationmatrices can be computedby applying RQ
decomposition to the new camera matrix P
0
j
=P
j
~
H
1
.
For this reason, allself-calibrationmethods assume somerestrictedform of thecalibration
matrix, either by setting or equating some of their elements or by assuming that they do not
vary over time. While most of the techniques discussed byHartleyandZisserman(2004);
Moons, Van Gool, and Vergauwen(2010)requirethreeormoreframes,inthissectionwe
presenta simple technique that can recover the focal lengths (f
0
;f
1
)of both images from the
fundamental matrix F in a two-frame reconstruction (HartleyandZisserman2004, p. 456).
To accomplish this, we assume that the camera has zero skew, a known aspect ratio (usu-
ally set to 1), and a known optical center, as in Equation (2.59). How reasonable is this
assumption inpractice? The answer, as with many questions, is “it depends”.
If absolutemetric accuracyis required, as inphotogrammetryapplications, itis imperative
to pre-calibrate the cameras using one of the techniques from Section6.3 and to use ground
control points to pin down the reconstruction. If instead, we simply wish to reconstruct the
worldfor visualizationor image-based renderingapplications, as inthe Photo Tourism system
ofSnavely,Seitz,andSzeliski(2006), this assumption is quite reasonable in practice.
356
Computer Vision: Algorithms and Applications (September 3, 2010 draft)
Mostcameras today have squarepixels and anoptical center near the middleof theimage,
and are much more likely to deviate from a simple camera model due to radial distortion
(Section6.3.5), which should be compensated for whenever possible. The biggest problems
occur when images have been cropped off-center, in which case the optical center will no
longer be in the middle, or when perspective pictures have been taken of a different picture,
in which case a general camera matrix becomes necessary.
9
Given these caveats, thetwo-framefocal length estimation algorithm basedontheKruppa
equations developed byHartleyandZisserman(2004, p. 456) proceeds as follows. Take the
left and right singular vectors fu
0
;u
1
;v
0
;v
1
gof the fundamental matrix F (7.30) and their
associated singular values f
0
;
1
)and form the following set of equations:
u
T
1
D
0
u
1
2
0
v
T
0
D
1
v
0
u
T
0
D
0
u
1
0
1
v
T
0
D
1
v
1
=
u
T
0
D
0
u
0
2
1
v
T
1
D
1
v
1
;
(7.35)
where the two matrices
D
j
=K
j
K
T
j
=diag(f
2
j
;f
2
j
;1) =
2
6
4
f
2
j
f
2
j
1
3
7
5
(7.36)
encode the unknown focal lengths. For simplicity, let us rewrite each of the numerators and
denominators in (7.35) as
e
ij0
(f
2
0
) =
u
T
i
D
0
u
j
=a
ij
+b
ij
f
2
0
;
(7.37)
e
ij1
(f
2
1
) =
i
j
v
T
i
D
1
v
j
=c
ij
+d
ij
f
2
1
:
(7.38)
Notice that each of these is affine (linear plus constant) in either f
2
0
or f
2
1
. Hence, we
can cross-multiply these equations to obtain quadratic equations in f
2
j
,which can readily
be solved. (See also the workbyBougnoux(1998) for some alternative formulations.)
Analternative solution technique istoobservethat we havea setof threeequations related
by anunknown scalar , i.e.,
e
ij0
(f
2
0
)= e
ij1
(f
2
1
)
(7.39)
(Richard Hartley, personal communication, July 2009). These can readily be solved to yield
(f2
0
;f2
1
;) and hence (f
0
;f
1
).
How well does this approach work in practice? There are certain degenerate configura-
tions, such as when there is no rotation or when the optical axes intersect, when it does not
work at all. (In such a situation, you can vary the focal lengths of the cameras and obtain
In PhotoTourism,oursystem registeredphotographsofaninformationsign outsideNotreDamewithreal
picturesofthecathedral.
7.3 Factorization
357
adeeper or shallower reconstruction, which is an example of a bas-relief ambiguity (Sec-
tion7.4.3).) HartleyandZisserman(2004) recommend using techniques based on three or
more frames. However, if you find two images for which the estimates of (f
2
0
;f
2
1
;) are
well conditioned, they can be used to initialize a more complete bundle adjustment of all
the parameters (Section7.4). An alternative, which is often used in systems such as Photo
Tourism, is to use camera EXIF tags or generic default values to initialize focal length esti-
mates and refine them as part of bundle adjustment.
7.2.3 Application: View morphing
An interesting application of basic two-frame structure from motion is view morphing (also
known as view interpolation, see Section13.1), which can be used to generate a smooth 3D
animation from one view of a 3D scene to another (ChenandWilliams1993;SeitzandDyer
1996).
To create such a transition, you must first smoothly interpolate the camera matrices, i.e.,
the camerapositions, orientations, and focal lengths. While simplelinear interpolationcanbe
used(representingrotations as quaternions (Section2.1.4)), a more pleasingeffect is obtained
by easing in and easing out the camera parameters, e.g., using a raised cosine, as well as
moving the camera along a more circular trajectory (Snavely,Seitz,andSzeliski2006).
To generate in-between frames, either a full set of 3D correspondences needs to be es-
tablished (Section11.3) or 3D models (proxies) must be created for each reference view.
Section13.1 describes several widely used approaches to this problem. One of the simplest
is to just triangulate the set of matched feature points in each image, e.g., using Delaunay
triangulation. As the 3D points are re-projected into their intermediate views, pixels can be
mapped from their original source images to their new views using affine or projective map-
ping (SzeliskiandShum1997). The final image is then composited using a linear blend of
the two reference images, as with usual morphing (Section3.6.3).
7.3 Factorization
When processing video sequences, we often get extended feature tracks (Section4.1.4) from
which it is possible to recover the structure and motion using a process called factorization.
Consider the tracks generated by a rotating ping pong ball, which has been marked with
dots to make its shape and motion more discernable (Figure7.5). We can readily see from
the shape of the tracks that the moving object must be a sphere, but how can we infer this
mathematically?
It turns out that, under orthography or related models we discuss below, the shape and
motion can be recovered simultaneously using a singular value decomposition (Tomasiand
358
Computer Vision: Algorithms and Applications (September 3, 2010 draft)
(a)
(b)
(c)
Figure 7.5 3D reconstruction of a rotating ping pong ball using factorization (Tomasiand
Kanade 1992)
c
1992 Springer: (a) sample image with tracked features overlaid; (b) sub-
sampled feature motion stream; (c) two views of the reconstructed 3D model.
Kanade1992).Considertheorthographicandweakperspectiveprojectionmodelsintroduced
inEquations (2.472.49). Since the last rowis always [0001], there is noperspective division
and we can write
x
ji
=
~
P
j
p
i
;
(7.40)
where x
ji
is the location of the ith point in the jth frame,
~
P
j
is the upper 2  4 portion of
the projection matrix P
j
,and p
i
=(X
i
;Y
i
;Z
i
;1) is the augmented 3D point position.
10
Let us assume (for now) that every point i is visible in every frame j. We can take the
centroid (average) of the projected point locations x
ji
in frame j,
x
j
=
1
N
X
i
x
ji
=
~
P
j
1
N
X
i
p
i
=
~
P
j
c;
(7.41)
where c = (
X;
Y;
Z;1) is the augmented 3D centroid of the point cloud.
Since world coordinate frames in structure from motion are always arbitrary, i.e., we
cannot recover true 3D locations without ground control points (known measurements), we
can place the origin of the world at the centroid of the points, i.e,
X=
Y =
Z= 0, so that
c = (0;0;0;1). We see from this that the centroid of the 2D points in each frame x
j
directly
gives us the last element of
~
P
j
.
Let ~x
ji
= x
ji
x
j
be the 2D point locations after their image centroid has been sub-
tracted. We can now write
~x
ji
=M
j
p
i
;
(7.42)
10 Inthissection,weindexthe2Dpointpositionsasx
ji
instead of x
ij
,since this is the convention adopted by
factorization papers (TomasiandKanade1992)and is consistentwith the factorization given in (7.43).
Documents you may be interested
Documents you may be interested