domingo, 24 de octubre de 2010

Como calcular la distancia entre dos vectores en el espacio( 3 dimensiones)?:resuelto

por: ing G.A.
 Me tope con este problema en robotica y aunque suena bastante trivial no lo es  ya que la recta que forma la distancia (ai) entre dichos vectores (ejes) tiene que ser forzosamente perpendicular a los 2 vectores(ejes). esta condicion solo se cumple en un punto, la tarea encontrar como calcular esto matematicamente. esto me llevo a mi siguiente pregunta.
Como calculo la distancia entre dos puntos en el espacio ( 3 dimensiones)?
Es decir, en el plano cartesiano tenemos que las coordenadas del punto "x" son (1,2,3) y las del punto "y" son (4,5,6) ¿Como calculo la distancia entre estos dos puntos?
trivial:
puedes calcular la distancia entre esos dos puntos ( ai ) asi:
La fórmula se parece a la de la distancia de un punto a un plano, excepto porque se reemplaza el producto vectorial por la magnitud del producto vectorial y el vector normal n por un vector de dirección para la recta. donce u es el vector normal y esta dado por el producto cruz de el vector u1 y u2 , los vectores o rectas en cuestion. u1 x u2 = u

 Por ejemplo:
El punto Q(3,-1,4) y la recta dada por
x=-2+3t
y=-2t
z=1+4t
los numeros de dirección son 3,-2 y 4, un vector de direccion de la recta es u=(3,-2 , 4)
un punto en la recta se encuentra haciendo t=0 y se obtiene P=(-2,0,1)

se aplica la resta para encontrar el vector PQ
se forma el producto vectorial
y se encuentra la distancia por la formula de arriba y listo problema resuelto esto sirve para calcular la distancia entre vinculos de un robot en robotica. esta formula tambien sirve para calcular el volumen de un paraleleipipedo. si me da tiempo subire algunas imagenes.
:) peace

viernes, 15 de octubre de 2010

optimal control


Optimal control by: Sergio Gabriel Aldana 22136204
Optimal control theory, an extension of the calculus of variations, is a mathematical optimization method for deriving control policies.
Optimal control deals with the problem of finding a control law for a given system such that a certain optimality criterion is achieved. A control problem includes a cost functional that is a function of state and control variables. An optimal control is a set of differential equations describing the paths of the control variables that minimize the cost functional. The optimal control can be derived using Pontryagin's maximum principle (a necessary condition), or by solving the Hamilton-Jacobi-Bellman equation (a sufficient condition).
Control problems usually include ancillary constraints. A proper cost functional is a mathematical expression giving the traveling time as a function of the speed, geometrical considerations, and initial conditions of the system. It is often the case that the constraints are interchangeable with the cost functional.
J=\Phi(\textbf{x}(t_0),t_0,\textbf{x}(t_f),t_f) + \int_{t_0}^{t_f} \mathcal{L}(\textbf{x}(t),\textbf{u}(t),t) \,\operatorname{d}tA more abstract framework goes as follows. Minimize the continuous-time cost functional

subject to the first-order dynamic constraints


 \dot{\textbf{x}}(t) = \textbf{a}(\textbf{x}(t),\textbf{u}(t),t),
 

the algebraic path constraints


 \textbf{b}(\textbf{x}(t),\textbf{u}(t),t) \leq \textbf{0},
 

and the boundary conditions


\boldsymbol{\phi}(\textbf{x}(t_0),t_0,\textbf{x}(t_f),t_f)
 

(\textbf{x}^*(t^*),\textbf{u}^*(t^*),t^*)where \textbf{x}(t)is the state, \textbf{u}(t)is the control, t is the independent variable (generally speaking, time), t0 is the initial time, and tf is the terminal time. The terms Φ and \mathcal{L}are called the endpoint cost and Lagrangian, respectively. Furthermore, it is noted that the path constraints are in general inequality constraints and thus may not be active (i.e., equal to zero) at the optimal solution. It is also noted that the optimal control problem as stated above may have multiple solutions (i.e., the solution may not be unique). Thus, it is most often the case that any solution to the optimal control problem is locally minimizing.