jueves, 29 de mayo de 2014

5.1. Procesamiento de imágenes

EL PROCESAMIENTO de imágenes tiene como objetivo mejorar el aspecto de las imágenes y hacer más evidentes en ellas ciertos detalles que se desean hacer notar. La imagen puede haber sido generada de muchas maneras, por ejemplo, fotográficamente, o electrónicamente, por medio de monitores de televisión. El procesamiento de las imágenes se puede en general hacer por medio de métodos ópticos, o bien por medio de métodos digitales, en una computadora. En la siguiente sección describiremos muy brevemente estos dos métodos, pero antes se hará una síntesis brevísima de los principios matemáticos implícitos en ambos métodos, donde el teorema de Fourier es el eje central.

PROCESAMIENTO DIGITAL 

Figura 42. Procesamiento óptico de imágenes. (a) imagen original, con líneas de barrido, tipo imagen de televisión; (b) transformada de Fourier del objeto; (c) transformada de Fourier modificada, después de filtrar y (d) imagen procesada, sin las líneas de barrido.
Al igual que en el caso del procesamiento óptico, los principios fundamentales del procesamiento digital de imágenes están establecidos hace muchos años, pero no se llevaban a cabo debido a la falta de computadoras. Con la aparición de las computadoras de alta capacidad y memoria, era natural que se comenzara a desarrollar este campo. Uno de los primeros lugares donde se empezó a realizar el procesamiento digital fue en el Jet Propulsion Laboratory, en 1959, con el propósito de mejorar las imágenes enviadas por los cohetes. Los resultados obtenidos en un tiempo relativamente corto fueron tan impresionantes que muy pronto se extendieron las aplicaciones del método a otros campos. 

Figura 43. División de una imagen en pixeles. 
El procesamiento digital de imágenes se efectúa dividiendo la imagen en un arreglo rectangular de elementos, como se muestra en la figura 43. Cada elemento de la imagen así dividida se conoce con el nombre de pixel. El siguiente paso es asignar un valor numérico a la luminosidad promedio de cada pixel. Así, los valores de la luminosidad de cada pixel, con sus coordenadas que indican su posición, definen completamente la imagen.
Todos estos números se almacenan en la memoria de una computadora.
El tercer paso es alterar los valores de la luminosidad de los pixeles mediante las operaciones o transformaciones matemáticas necesarias, a fin de hacer que resalten los detalles de la imagen que sean convenientes. El paso final es pasar la representación de estos pixeles a un monitor de televisión de alta definición, con el fin de mostrar la imagen procesada (Figura 44). 



 Figura 44. Procesamiento digital de imágenes. Cefalograma en el que se han reforzado las componentes de Fourier de alta frecuencia. (Tomado de S. W. Oka y H. J. Trussell, The Angle Ortodontist, 48, núm. 1, 80, 1978). (a) Imagen original y (b) imagen procesada.
UTILIDAD DEL PROCESAMIENTO DE IMÁGENES
La utilidad del procesamiento de imágenes es muy amplia y abarca muchos campos. Un ejemplo son las imágenes obtenidas con fines de diagnóstico médico. Otro ejemplo son las imágenes aéreas obtenidas para realizar exámenes del terreno. Mediante este método se pueden analizar los recursos naturales, las fallas geológicas del terreno, etcétera.

5.2. Visión por computadora

¿Qué es la visión por computadora y por qué deberíamos estar interesados en estudiarla? Tal vez sea más fácil contestar a estas dos preguntas si son resueltas en orden inverso.
Hay varias razones por las que debemos estar interesados en la visión computacional o visión artificial, pero los dos siguientes aspectos nos permitirán observar las distintas direcciones en las cuales se puede ver el tema:
a) Todas las formas de vida inteligente poseen la capacidad de obrar recíprocamente y de manipular su ambiente de una manera coherente y estable. Esta interacción es facilitada por la continua intervención inteligente entre la percepción y el control del movimiento (es decir acción); la percepción visual es de fundamental importancia para la vida inteligente.
b) Más fabricantes están preocupados por la integridad cosmética de sus productos; los clientes comparan absolutamente a menudo la calidad del aspecto con calidad funcional. Así pues, para asegurar la acertada comercialización a largo plazo de un artículo, es altamente deseablecomparar su aspecto visual antes de ser empaquetado y enviado. Asimismo, es deseable que el proceso de la inspección esté automatizado y efectuado sin la intervención humana.
Estas dos motivaciones para el estudio de la percepción caracterizan dos posibles razones del interés para el procesamiento, análisis, e interpretación de imágenes visuales: desde la filosófica y quizás esotérica inmediata y pragmática. Y todo el argumento entre estas dos razones presentes, una de estas con una amplia variedad de espectros en el interés comercial, dificultad y, por supuesto, del éxito.
La respuesta para la primera pregunta (¿Qué es la visión artificial?) ahora se vuelve un poco más fácil de identificar. La experiencia en el mundo en que vivimos esta cubierta por una variedad sin fin de objetos, animados e inanimados. Así pues, si la visión es un medio para un fin – conocer el mundo observándolo – la visión artificial es exactamente lo mismo salvo que el medio por el cual se adquiere el conocimiento ahora es un instrumento de cómputo más bien que el cerebro de alguna ser vivo. Sin duda, esto es una definición muy amplia. Pero el tema de la visión artificial es extenso: los asuntos tales como la restauración de imágenes, mejoramiento de imagen, inspección visual automatizada, visión robótica, escenas tridimensionales, y percepción y cognición visual todas forman parte del término “Visión Artificial”.
Por siglos el hombre ha estado interesado en solucionar el rompecabezas ¿Por qué podemos ver?, los primeros experimentos de cómputo para desarrollar sistemas artificiales para la visión en máquinas empezaron tarde en los años, de amplia variedad en grados de complejidad han sido usados en muchas áreas diversas tales como ofimática, medicina, detección remota por satélite, y en el mundo industrializado y militar. Los usos han sido muchos y variados, abarcando el reconocimiento de caracteres, análisis las células de sangre, investigación automática de las radiografías, medicina nuclear , tomografías asistidas por computadora (CAT, Computer Aided Tomography), clasificación de cromosomas, identificación land-use, supervisión del tráfico, generación automática de proyecciones cartográficas, inspección de piezas para la garantía de calidad industrial, identificación de piezas y regeneración visual para ensamblaje y reparación automática. Los usos militares han incluido el seguimiento de objetos móviles, navegación automática basada en detección pasiva, y target acquisition y range-finding.
Como hemos visto, a la visión artificial le compete estudiar la estructura físicatridimensional del mundo para el análisis automático de imágenes. Sin embargo, es necesaria la calidad en el uso de imágenes. Primero, analicemos una simple imagen es dedos- dimensiones y, por lo tanto, perdemos inevitable la información en el proceso de la proyección, es decir en pasar de un mundo tridimensional a una imagen de dos dimensiones.
Muy a menudo, es la recuperación de esta información perdida la que forma el problema central en la visión artificial. En segundo lugar, las imágenes son imágenes digitales: son representaciones discretas (es decir ellas tienen valores distintos en los puntos regularmente muestreados) y son representaciones cuantificadas (es decir cada valor es un valor del número entero).

La visión artificial incluye muchas técnicas que son útiles para si misma, Ej., el procesamiento de imágenes (que se refiere a la transformación, codificación, y transmisión de las imágenes) y los patrones, de las cuales los patrones visuales son pero solo una instancia). Más significativamente, sin embargo, la visión artificial incluye técnicas para la descripción útil de la forma y del volumen, para modelos geométricos, y para el llamado proceso cognoscitivo. Así, aunque la visión artificial se refiere ciertamente al procesamiento de imágenes, estas imágenes son solamente la materia prima de una ciencia mucho más amplia, la misma que se esfuerza en última instancia para emular las capacidades perceptivas del hombre y, quizás, para verter una luz sobre la manera por la cual él logra su interacción adaptativa y robusta con su ambiente.

5.3. Animación por computadora.

La animación es la simulación de un movimiento, creada por una serie de imágenes o cuadros. La animación por computadora se puede definir como un formato de presentación de información digital en movimiento a través de una secuencia de imágenes o cuadros creadas o generadas por la computadora.
Características de la Animación 3D
La animación por computadora permite crear escenar “realmente” tridimensionales, en una escena animada por computadora es posible cambiar el ángulo de la cámara y ver otra parte de la escena. Se pueden reutilizar partes de la animación por separado.
Una animación se ve más realista si variamos el peso y el tamaño de los objetos. Para cambiar el peso es necesario cambiar el tiempo que tarda en moverse. Mientras más pesado su masa es mayor y es necesario aplicar mayor fuerza para moverlo.
Es necesario pensar en la forma como se moverán los objetos. Cada movimiento se realiza por una razón. Es necesario conocer las formas en que actúan los cuerpos.
En la animación en tres dimensiones debe considerarse la forma en que se detiene los cuerpos. Al animar a un personaje es conveniente que si se va a detener, alguna parte de su cuerpo se siga moviendo ligeramente, como la cabeza o un brazo.
Hay tres fases que componen una acción: La anticipación de la acción, la acción en sí y la reacción a la acción.
Técnicas de animación
La animación en acetatos (cel animation), la animación basada en cuadros (flipbook animation) y la animación en sprite.
Animación Basada en Cuadros
Para hacer una secuencia, se van filmando las imágenes cuadro por cuadro y luego estos se unen para formar la animación. Es posible formar bibliotecas de movimientos de cada parte del cuerpo de la animación para de esta forma combinarlas y hacer animaciones diferentes.
Animación Basada en Sprites
Se refiere a animaciones de objetos sobre fondos estáticos, es decir, lo que cambia son los personajes.
Key Framming
Se refiere a establecer posiciones en puntos específicos de tiempo en una animación y la parte intermedia la obtiene la computadora por medio de interpolación matemática.
Rotoscopiado
Se obtienen la posición y el ángulo de los puntos clave de imágenes reales y se trata de hacer converger los modelos en computadora con ellos.
Motion Control
Consiste en obtener posiciones clave de manera automática a partir de un actor real por medio de dispositivos que se conectan a su cuerpo.
Wavelets
Significa “pequeñas ondulaciones”. Esta técnica permite que en una sola imagen se compriman una gran cantidad de datos para que al acercarse a ella, se vayan viendo los detalles.
Técnicas de Pixar
El proceso que utiliza Pixar [12] para crear sus animaciones se compone de cuatro etapas principales: Desarrollo (crear el guión de la historia), preproducción (se direccionan los retos técnicos), producción (creación de la película) y post producción (pulir los últimos detalles).

Conclusión
El procesamiento de imágenes tiene como objetivo mejorar el aspecto de las imágenes y hacer más evidentes en ellas ciertos detalles que se desean hacer notar.
La experiencia en el mundo en que vivimos esta cubierta por una variedad sin fin de objetos, animados e inanimados. Así pues, si la visión es un medio para un fin – conocer el mundo observándolo – la visión artificial es exactamente lo mismo salvo que el medio por el cual se adquiere el conocimiento ahora es un instrumento de cómputo más bien que el cerebro de alguna ser vivo.
En esta unidad aprendimos que el procesamiento de imágenes está dado por un conjunto de operaciones llevadas a cabo sobre las imágenes a fin de realizar mediciones cuantitativas para poder describirlas. Una imagen f(x,y) está dada por sus coordenadas espaciales y su brillo, y es representada matemáticamente en una matriz. Las imagenes al ser procesadas, se pueden obtener diversas aplicaciones como transformacion, restauracion, modelado, reconstruccion, entre otros. Tambien aprendimos que las técnicas de filtraje son transformaciones de la imagen píxel a píxel, que dependen de los niveles de gris de los píxeles vecinos en la imagen original, entre las que se encuentran el guassiano, mediana, suavizado, entre otros, y cada una se especifica en transformar la imagen de cierta manera.

Bibliografía

http://omarann.wordpress.com/2007/10/10/vision-por-computadora-procesamiento-de-imagenes-o-inteligencia-artificial/

4.1 Relleno de polígonos

Polígono es una figura básica  dentro de las representaciones y tratamiento de imágenes bidimensionales y su utilización es muy interesante para modelar objetos del mundo real. En un sentido amplio, se define como una región del espacio delimitada por  un conjunto de lineas (aristas) y cuyo interior puede estar rellenado por un color o patrón dado.
  
CASOS DE RELLENO SEGÚN SU COMPLEJIDAD
  El caso mas sencillo de relleno es el triangulo.
  Luego sigue el relleno de polígonos convexos de N-lados.

  Relleno de polígonos cóncavos.

 MÉTODO DE RELLENO DE POLÍGONOS CON  COLOR
Para scan-line que cruce el polígono se busca en la intersección entre las lineas de barrido y las aristas del polígono. Dichas intersecciones se ordenan y se rellenan a pares.
LINEA DE BARRIDO
 Es valido para polígonos cóncavos como convexos. Incluso para si el objeto tiene huecos interiores. Funcionan en el trozo de líneas horizontales, denominadas líneas de barridos, que intersectan un numero de veces, permitiendo a partir de ella identificar los puntos que se consideran interiores al polígono.
INUNDACIÓN
Empieza en un interior y pinta hasta encontrar la frontera del objeto.
Partimos de un punto inicial (x,y), un colo de relleno y  un color de frontera.
El algoritmo va testeando los píxeles vecinos a los ya pintados, viendo si son frontera o no. No solo sirven para polígonos, sino para cualquier área curva para cualquier imagen AE se usan los programas de dibujo.
FUERZA BRUTA
Calcula una caja contenedora del objeto.
Hace un barrido interno de la caja para comprobar c/pixel este dentro del polígono. Con polígonos simétricos basta con que hagamos un solo barrido en una sección y replicar los demás pixeles. Requiere aritmética punto-flotante, esto lo hace preciso y costoso.
RELLENO MEDIANTE UN PATRÓN
Un patrón viene definido por el área rectangular en el que cada punto tiene determinado color o novel de gris. Este patrón debe repetirse de modo periódico dentro de la región a rellenar. Para ello debemos establecer una relación  entre los puntos del patrón y los pixeles de la figura. En definitiva debemos determinar la situación inicial del patrón respecto a la figura de tal forma que podamos establecer una correspondencia entre los pixeles interiores al polígono y los puntos del patrón.

ALTERNATIVAS PARA LA SITUACIÓN INICIAL DEL PATRÓN
Consiste en situar el punto asociado a la esquina superior izquierda del patrón en un vértice del polígono. Considerar la región a rellenar en toda la pantalla y por lo tanto el patrón se citua en el origen de esta (esquina superior izquierda).
EJEMPLO DE SCAN-LINE
Encontrar las intersecciones de los scanlines en el polígono. Almacenar las intersecciones en alguna estructura de datos ET (edge table), de manera ordena ascendiente en Y y en X  en  buckets. Rellenar los spans usando la estructura. Usar algún criterio de paridad para saber cuando un intervalo debe ser rellenado o no.

4.2 Modelos básicos de iluminación

Luz ambiental: Corresponde al modelo en el cual cada objeto se presenta con una intensidad intrínseca. Se puede considerar este modelo, que no tiene una fuente de luz externa, como la descripción de un mundo ligeramente irreal de objetos no reflejantes y autoluminosos.
Un modelo de iluminación se puede expresar con una ecuación de iluminación de variables asociadas con el punto en el objeto que se sombrea. La ecuación de iluminación que expresa este sencillo modelo es: I = Ki
Donde I es la intensidad resultante y el coeficiente Ki es la intensidad intrínseca del objeto.
En un lugar de Autoluminosidad hay una fuente luminosa difusa no direccional, producto de reflexiones múltiples de la luz en las superficies presente en el ambiente. Esto se conoce como luz ambiental. Si suponemos que la luz ambiental afecta de la misma forma a todas las superficies desde todas las direcciones, nuestra ecuación se convierte en: I = Ia * Ka
Donde:
Ia; es la intensidad de la luz ambiental (constante para todos los objetos); y,
Ka; es la cantidad de luz ambiental reflejado por la superficie de un objeto, su valor está entre 0 y 1 y se conoce como el Coeficiente de Reflexión Ambiental. Este valor es una propiedad material no una propiedad física.
Reflexión difusa:

En este caso se requiere una fuente luminosa puntual cuyos rayos emanan uniformemente en todas las direcciones a partir de un único punto. La brillantez de un objeto varia de una parte a otra, dependiendo de la dirección y la distancia de éste con respecto a la fuente luminosa.
Reflexión Lambertiana:
Se trata de superficies que aparecen con la misma brillantez desde todos los ángulos de observaciones, pues reflejan la luz con igual intensidad en todas las direcciones.
En segundo lugar, se debe considerar la cantidad de luz que ve el observador. Las superficies lambertianas tienen la propiedad de que la cantidad de luz que reflejan hacia el observador en un área diferencial dA es directamente proporcional al coseno del ángulo entre la dirección al observador y el vector normal N, esto es independiente del material.
I = Ip * Kd * cos φ = Ip * Kd * (N • L), 
N y L son vectores normalizados, N normal a la superficie en el punto a calcular y L apuntando a la fuente de luz.
Ip es la intensidad de la fuente luminosa puntual.
Kd es el coeficiente de reflexión difusa del material, el cual es una constante entre 0 y 1 y varía de un material a otro.
El ángulo φ debe estar entre 0º y 90º para que tenga efecto directo en el punto sombreado (superficie autocluyente).
Reflexión especular:
La reflexión especular se puede observar en cualquier superficie brillante.
En un espejo perfecto α = 0, sólo en la dirección del vector R se puede ver la reflexión de la luz (reflecto perfecto). En este caso el vector V representa la dirección del observador.
Modelo de Phong:
Phong Bli-Tong desarrolló un modelo de iluminación para reflectores imperfectos. El modelo supone que la máxima reflectancia especular ocurre cuando α es cero y decrece rápidamente conforme aumenta α. Esta caída rápida se aproxima por cosnα, donde n es el exponente de reflexión especular del material.
La cantidad de luz incidente que se refleja especularmente depende del ángulo de incidencia θ. Si W(θ) es la fracción de luz reflejada especularmente, el Modelo de Phong queda:
I = Ia * Ka + fatt * Ip * [Kd * cosθ + W(θ) * cosnα]
Si se utilizan vectores normalizados (R y V), si Ks, que corresponde al coeficiente de reflexión especular del material, reemplaza a W(θ, conservando su valor, el que varía entre 0 y 1, seleccionándolo empíricamente para producir resultados atractivos y si, además, se consideran los componentes de un modelo de colores (Odλ) de la luz difusa, entonces el modelo de Phong queda:
Iλ = Iaλ * Ka * Odλ + fatt * Ipλ * [Kd * Odλ * (N•L) + Ks * (R•V)n]
Donde:
Odλ Componente difuso perteneciente a la longitud de onda λ.
Iaλ Componente λ de la iluminación ambiental
Ipλ Componente λ de la iluminación puntual que produce reflexión difusa y especular. 
Fuentes Luminosas Múltiples:
Si se suman m fuentes luminosas, los términos de cada una de ellas deben agregarse a la fórmula, quedando esta como:
Iλ = Iaλ * Ka * Odλ + Σ i=1,n (fatti * Ipλi * [Kd * Odλ * (N•Li ) + Ks (Ri•V)n]) 

4.3 Técnicas de sombreado.

Clásicas: Iluminación local. Luces que no son extensas, como las reales, sino inextensas, puntuales. Y, por añadidura, se relacionan con los objetos como mónadas aisladas, sin tener en cuenta la interacción entre ellos. Esto explica lo artificioso de muchas de las técnicas que se describirán más adelante y que buscan compensar estas limitaciones.

Las insuficiencias de los métodos de iluminación local se han superado en parte por medio de sistemas de iluminación global que permiten tomar en cuenta la interacción entre objetos. Las dos técnicas principales son el trazado de rayos (ray tracing) y la radiosidad (radiosity)


Cálculos de iluminación por vértices
Para poder aplicar iluminación necesitamos asociar a cada vértice de nuestro objeto un vector normal asociado. Cuando tenemos la normal calculada tenemos que normalizarla, o sea, dividir ese vector por su propio modulo para que sea unitario, pero también podemos hacer que se encargue la OpengGl activando la normalización, glEnable GL_NORMALIZE o desactivarla con, glDisable GL_NORMALIZE el usar GL_NORMALIZE dependerá de nuestra aplicación ya que forzando a que sea OpenGl que las utilice se ralentiza ya que le estamos hacer mas cálculos de los que debe. Para definir las normales en opengl utilizaremos la función glNormal3f(X,Y,Z) por ejemplo para definir una cara con 4 vértices la definiremos de la siguiente manera GlBegin GL_QUADS
1.    glNormal3f nX,nY,nZ
2.    glvertex3f x,y,z
3.    glvertex3f x,y,z
4.    glvertex3f x,y,z
5.    glvertex3f x,y,z
6.    glEnd
Es decir, cada vez que queremos definir una normal a un vértice usamos glNormal y el vértice/s que siguen se asocian a esta normal.
La luz de tipo SMOOTH el polígono que definamos tendrá un color definido par cada vértice, asociando las normales a los vértices OpenGL puede hacer los cálculos de los colores a cada uno del vértice y después hace una interpolación de colores con este tipo de luz se acerca bastante al realismo pero a un la podemos mejorar.
Posterior relleno de triangulos
Rellenado de los triángulos (rastering). Para ello se realizan varias fases de procesamiento por Pixel. Comprobar si cada nuevo pixel es visible o no (comprobación de profundidad). Interpolación lineal del color para el nuevo pixel (método de Gouraud).
Si existe una textura definida o transparencia, efectuar la modificación de color correspondiente.
Se trata de la última fase, en ocasiones la más costosa, del proceso, por lo que es la primera que se suele integrar en el hardware gráfico. En esta etapa se trata de asignar colores a los pixels correspondientes al interior de cada triángulo proyectado que cae dentro del área de visualización. Los colores asignados deben calcularse por el método de Gouraud, interpolando linealmente entre los colores de los tres vértices.

Renderizado en Tiempo real
La idea fundamental del procesado en tiempo real es que todos los objetos deben ser descompuestos en polígonos. Estos polígonos serán descompuestos a su vez en triángulos. Cada triángulo será proyectado sobre la ventana bidimensional y rellenado con los colores adecuados para reflejar los efectos de la iluminación, texturas, etc. Una vez se han generado los triángulos, en la pipeline existen dos partes claramente diferenciadas: una primera etapa operaciones realizadas sobre cada uno de los vértices, y después de que éstos se proyecten sobre la ventana, entonces comienza una segunda fase de cálculos realizados para cada pixel cubierto por los triángulos.
Realistas: Iluminación global
Son sencillos y rápidos pero proporcionan imágenes muy simples, que no representan adecuadamente el modo en que la luz ilumina los objetos y los espacios. Esto no quiere decir que no sean útiles para un gran número de casos, y es muy importante calibrar adecuadamente que es lo que se necesita, pues puede muy bien ocurrir que un cálculo local proporcione imágenes relativamente esquemáticas pero más adecuadas para la representación de un proyecto.
Los métodos principales que existen en la actualidad pueden considerarse como desarrollos, con diferentes variantes, de los dos métodos principales que surgieron en la década de los 1980, ray tracing (introducido por T.Whitted en 1980) y radiosity (hacia 1984 por varios autores). Una base téorica más firme para los algoritmos y métodos de GI (Global Illumination), vino con la publicación, por Kajiya, en 1986 de la rendering equation, que puede encontrarse en un manual especializado.
Trazado de Rayos
El trazado de rayos computa la interacción de la luz desde un punto de vista determinado y es particularmente adecuado para superficies reflectantes. Puede utilizarse como propiedad específica de un determinado material.

Radiosidad
Está basado en principios generales que se pueden encontrar en un manual general sobre rendering. En el estadio inicial la escena consta de dos tipos de objetos: objetos que emiten luz y objetos que reciben luz. A partir de aquí, en una primera vuelta, se computa la luz que recibe cada objeto o, en una aproximación más exacta, cada parte de un objeto, según una subdivisión cuya densidad puede precisarse en sucesivas aproximaciones. Cada una de estas partes, según su grado de reflexividad, su orientación y su distancia con respecto a las fuentes de luz original, se convertirá, en una segunda vuelta, en un nuevo emisor de energía lumínica, una fuente de luz secundaria que iluminará a su vez a los objetos que le rodean.
Casi todos los modelos de iluminación necesitan conocer la normal de cada superficie para calcular su color.
 El primero, llamado método de Gouraud, efectúa una interpolación a partir de los colores calculados por los vértices del polígono, en los que se conoce la normal. El segundo llamado método de Pong, interpola la normal en el punto en estudio a partir de las normales en los vértices, calculando a continuación el color con la ayuda de esta normal según el modelo de iluminación elegido.
Cálculos de iluminación por pixel
Iluminación por fragmento (por pixel) puede ser elaborada en hardware de gráficos moderno como un proceso de post-rasterización por medio de un programa de shader.
Pixel Shader (PS) como un pequeño programa que procesa fragments (algo así como pixelscon más datos) y que se ejecuta en la GPU. Al crear un PS, se crea una función de procesado de fragmentos que manipula datos de fragmentos.
Frecuentemente necesitan datos del VS, llegando incluso a veces a ser “conducidos” por éste. Por ejemplo, para calcular una iluminación por pixel, el PS necesita la orientación del triángulo, la orientación del vector de luz y en algunos casos la orientación del vector de vista.
Alto Acabado. Sombreado Constante o plano. Un cálculo para todo el polígono. Obtenemos una intensidad  que aplicamos a un conjunto de puntos de un objeto (p.ej. todo un triángulo). Aceleramos el proceso de síntesis.  Correcto si se verifica: Fuente de luz en el infinito. Observador en el infinito. El polígono representa una superficie plana real del objeto que se modela y no es una aproximación de un objeto curvo.

 Sombreado Constante o Plano. Obtenemos una intensidad que aplicamos a un conjunto de puntos de un objeto           
*Aceleramos el proceso de síntesis
*Correcto si se verifica.
* Fuente de luz en el infinito
*Observador en el infinito

Un cálculo para todo el polígono. Obtenemos una intensidad  que aplicamos a un conjunto de puntos de un objeto (p.ej. todo un triángulo).
1.    Aceleramos el proceso de síntesis.
2.    Correcto si se verifica
3.    Fuente de luz en el infinito
4.    Observador en el infinito
5.    El polígono representa una superficie plana real del objeto que se modela y no es una aproximación de un objeto curvo.
Interpolación de Intensidades (Gouraud)
Se basa en la interpolación de intensidad o color. Considera que facetas planas vecinas proceden de aproximar una superficie curva (salvo que se  declare una arista real entre ambas).
1.    Elimina en gran medida las discontinuidades de iluminación
2.    Es sencilla, pero produce peores resultados en objetos con brillos especulares que el método      de Phong
3.    Implementado en OpenGL

Fuentes de Luz. La luz puede dejar una superficie mediante dos procesos fundamentales:
1.    Emisión propia
2.    Reflexión
Normalmente se piensa en una fuente de luz como un objeto que emite luz solo mediante fuentes de energía internas, sin embargo, una fuente de luz, como un foco, puede reflejar alguna luz incidente a esta del ambiente. Este aspecto no será tomado en cuenta en los modelos más sencillos.

Fuentes de Luz Distantes. La mayoría de los cálculos de sombreado requieren la dirección de un punto sobre la superficie a la fuente de luz. Según se mueve a lo largo de la superficie, se debe re computar este vector para calcular la intensidad en cada punto, una computación que es una parte significativa del cálculo del sombreado. Sin embargo, si la fuente de luz está lejos de la superficie, el vector no cambiará mucho según se mueve de un punto a otro, al igual que la luz del sol da en todos los objetos cercanos entre si con el mismo ángulo.
Fuentes de Color. No solamente las fuentes de luz emiten diferentes cantidades de luz en diferentes frecuencias, pero también sus propiedades direccionales varían con la frecuencia. Por lo tanto, un modelos físicamente correcto puede ser muy complejo. Para la mayoría de las aplicaciones, se puede modelar fuentes de luz en base a tres componentes primarios, RGB, y puede usar cada uno de los tres colores fuentes para obtener el componente de color correspondiente que un observador humano vería.
Luz Ambiente. La luz ambiente ilumina por igual todas las zonas en sombra para simular el efecto de interacción entre objetos que hace que las partes en sombra de los objetos queden parcialmente iluminadas.
En algunos cuartos, las luces se diseñan y ubican para proveer iluminación uniforme en el cuarto. Tal iluminación se logra mediante fuentes grandes con difusores cuyo propósito es esparcir la luz en todas las direcciones. Se puede crear una simulación precisa de tal iluminación, modelando todas las fuentes distribuidas, y luego integrando la iluminación de estas fuentes en cada punto de una superficie reflectora. Hacer tal modelo y generar la escena sería un tarea formidable para un sistema gráfico, especialmente si se desea ejecución en tiempo real. De manera alternativa, se puede ver el efecto deseado de las fuentes: lograr un nivel de luz uniforme en el cuarto. Esta iluminación uniforme se llama luz ambiente. Si se sigue este segundo enfoque, se puede postular una intensidad ambiente en cada punto del ambiente. Por lo tanto, iluminación ambiente se caracteriza por una intensidad Ia, que es idéntica en cada punto de la escena.

Spotlights (direccionales)
Los spotlights se caracterizan por un rango delgado de ángulos por los cuales se emite luz. Se puede construir un spotlight sencillo de una fuente de punto limitando los ángulos de donde la luz de la fuente se puede ver. Se puede usar un cono cuyo ápice está en ps, apuntando en la dirección ls, y cuyo ancho está determinado por el ángulo θ.

Conclusión
Es muy importante saber las técnicas de rellenado que existen esto para poder darle el efecto de relleno a nuestro objetos, no es lo mismo rellenar un poligono con una técnica para que el realce sea en conjunto con una técnica de iluminación.
Esto nos ofrece mostrar imágenes de calidad, en cuanto a sus matices.

Bibliografía
http://www.acta.es/medios/articulos/informatica_y_computacion/055061.pdf
https://sites.google.com/site/tgcutn/Clases/unidad-4---texturas-e-iluminacion