sábado, 31 de marzo de 2007

Sistemas de medidas y teoria de Errores

1) Descripción de un sistema de medida y control
Es un conjunto de elementos cuya función es la asignación objetiva y empírica de un número a una cualidad o propiedad de un objeto o evento, de tal forma que la describa. Por tanto, el resultado de la medida debe ser independiente del observador (objetiva), basado en alguna experimentación (empírica), y de tal forma que exista una correspondencia entre las relaciones numéricas y las relaciones de las propiedades descritas.


En un sistema se puede observar como el proceso de la medida incluye, además de la adquisición de la información por parte de un sensor o transductor, el procesamiento de la misma y su presentación para que nuestros sentidos puedan percibir los resultados. Por otro lado, cuando dichas medidas se realizan de manera remota se requiere la transmisión de la información.



2) Bloques constitutivos de un sistema de medida




1.)Sensor
2.) Acondicionador,
3.) Transmisión de datos,
4.) Presentaciones
5.) Objetivos
6.) Alarmas,
7.) Supervisor
8.) Controlador
9.) Transmisión de orden
10.) Acondicionador
11.) Acondicionamiento
12.) Sistema de planta o proceso
13.) Perturbaciones



3) El sensor
Un sensor es un dispositivo que detecta, o sensa manifestaciones de cualidades o fenómenos físicos, como la energía, velocidad, aceleración, tamaño, cantidad, etc. Podemos decir también que es un dispositivo que aprovecha una de sus propiedades con el fin de adaptar la señal que mide para que la pueda interpretar otro elemento. Como por ejemplo el termómetro de mercurio que aprovecha la propiedad que posee el mercurio de dilatarse o contraerse por la acción de la temperatura. Muchos de los sensores son eléctricos o electrónicos, aunque existen otros tipos. Un sensor es un tipo de transductor que transforma la magnitud que se quiere medir, en otra, que facilita su medida. Pueden ser de indicación directa (e.g. un termómetro de mercurio) o pueden estar conectados a un indicador (posiblemente a través de un convertidor analógico a digital, un computador y un display) de modo que los valores sensados puedan ser leídos por un humano.
Por lo general la señal de salida de estos sensores no es apta para su procesamiento, por lo que se usa un circuito de acondicionamiento, como por ejemplo un puente de Wheatstone, y amplificadores que adaptan la señal a los niveles apropiados para el resto de la circuitería.
4) Características estáticas de un sistema de medida: Resolución, margen de medida, margen dinámico, exactitud, precisión, histéresis, sensibilidad, linealidad.

* Resolución: Es el incremento mínimo de la entrada para el que se obtiene un cambio en la salida.
* Margén de medida: Es el limite, por arriba o por debajo, dentro de los cuales se consideran anormales los valores de alguna variable que esten ubicados en este rango; y se consideran normales si se encuentran dentro del rango de medida deseado.


* Margen dinámico: El rango dinámico o margen dinámico se puede definir de dos maneras:
- El margen que hay entre el nivel de referencia y el
ruido de fondo de un determinado sistema, medido en decibelios. En este caso rango dinámico y relación señal/ruido son términos intercambiables.


- El margen que hay desde el nivel de pico y el nivel de ruido de fondo. También indicado en dB. En este caso, rango dinámico y relación señal/ruido no son equiparables.

Las dos maneras son válidas, por ello, es común que para indicar que margen dinámico están utilizando, los fabricantes incluyen frases como:
60 dB (ref. salida máxima).
60 dB (ref. nivel de pico).
* Exactitud: Es la capacidad que tiene un instrumento de dar indicaciones que se aproximen al verdadero valor de la magnitud medida.


* Precisión: Es la capacidad de un instrumento de dar el mismo valor de la magnitud medida, al medir varias veces en unas mismas condiciones determinadas. de otra forma, expresa el grado de concordancia entre el valor indicado por el sistema de medida y el valor real de la magnitud. Se representa por la desviación, expresada en porcentaje del valor máximo. La mejor manera de conocer la precisión consiste en determinar la curva de error, en toda la banda de medida.


* Histéresis: Es la tendencia de un material a conservar una de sus propiedades, en ausencia del estímulo que la ha generado. Es la diferencia entre los valores indicados por el sistema para un mismo valor de magnitudes de medida, cuando se ha alcanzado entre valor por valores crecientes o por valores decrecientes.


* Sensibilidad: Es el cambio incremental más pequeño que puede detectar el instrumento. Esto no quiere decir que se deba mostrar el cambio minimo detectable al usuario. Representa la relación de la señal de salida y la señal de entrada. Para la misma señal de entrada, la salida es tanto mayor cuanto mayor sea la sensibilidad.


* Linealidad: Significa que la función que relaciona la variable de salida con la de entrada es una función lineal (geométricamente representada por una línea inclinada). Las desviaciones de la linealidad se expresan en porcentaje.



5) Características dinámicas del sistema de medida
Estás características son importantes cuando la variable a medir cambia con el tiempo. Estas son:
* El error dinámico: Es el error existente entre el valor indicado por el sensor y el valor exacto de la variable a medir, a lo largo del tiempo, cuando el error estático es nulo.
* La velocidad de respuesta: Tiene que ver con la rapidez con la que un sensor responde ante un cambio brusco de la magnitud a medir.
* Impedancia de entrada Z(s): Al cociente entre las transformadas de Laplace de una magnitud esfuerzo y su variable flujo asociada. La admitancia de entrada, Y(s), es el recíproco de la impedancia Z(s). Por tanto, al medir una magnitud esfuerzo es necesario que la impedancia de entrada sea alta. Así, sea x1 una variable esfuerzo, se tiene que:

Z (s ) = x 1(s )/x 2(s)

y la potencia extraída del sistema será:
P = x1 x2

Por tanto, para que dicha potencia sea mínima y con ello el error de carga, x2 debe ser mínima o, lo que es lo mismo, la impedancia de entrada debe ser alta. Por el contrario, al medir una variable flujo se requiere una impedancia de entrada pequeña, es decir, una admitancia de entrada elevada.
Las características dinámicas de los sensores suelen representarse mediante funciones
de transferencia. El orden de dichas funciones de transferencia puede utilizarse para
describir la respuesta dinámica de un determinado sensor.
6.) Perturbaciones e interferencias

* Interferencia: es cualquier proceso que altera, modifica o destruye una señal durante su trayecto en el canal existente entre el emisor y el receptor.
* Perturbaciones: Son todas aquellas señales externas que pueden afectar el sistema de medida.
7.) Características de entrada: La impedancia y defecto de carga
* Error de carga o defecto de carga: Tiene que ver con las perturbaciones sobre la variable a medir durante el proceso de medida. Esto es, todo sensor perturba, en mayor o menor medida, la variable a medir y, por tanto, la magnitud medida estará en parte alterada debido a la presencia de éste.

* Impedancia de entrada: Es el cociente entre las transformadas de Laplace de una magnitud esfuerzo y su variable flujo asociada. La admitancia de entrada, Y(s), es el recíproco de la impedancia Z(s). Por tanto, al medir una magnitud esfuerzo es necesario que la impedancia de entrada sea alta.


8.) Teoria de errores en la medición industrial

* Incertidumbre: En teoría de la información, la certidumbre es el grado cómo la información se puede considerar verdadera, completa y digna de fe. La incertidumbre se origina a partir de elementos de datos falsos o de un equívoco, a partir de datos incompletos o de un contexto ambiguo. El principio de incertidumbre nos dice que hay un límite en la precisión con el cual podemos determinar al mismo tiempo la posición y el momento de una partícula.

* Error sistemático: Se dice que un error es sistemático cuando en el curso de varias medidas de una magnitud de un determinado valor, hechas en las mismas condiciones, o bien permanece constante en valor absoluto y signo, o bien varía de acuerdo con una ley definida cuando cambian las condiciones de medida. Los errores sistemáticos son debidos al método de medida, al operario y toda una serie de circunstancias (climatológicas, mecánicas, eléctricas, etc.) que nunca son ideales, es decir, constantes y conocidas todas. Sin embargo, dada la naturaleza de este tipo de errores, siempre pueden detectarse mediante la medida de una determinada magnitud con dos aparatos distintos, ante distintas condiciones, etc. Los errores sistemáticos se pueden de alguna manera prever, calcular, eliminar mediante calibraciones y compensaciones.
* Error aleatorio: Son los errores que permanecen una vez se eliminan las causas de los errores sistemáticos. Presentan las siguientes características:
1. Los errores aleatorios positivos y negativos de igual valor absoluto tienen la
misma probabilidad de producirse.
2. Los errores aleatorios son tanto menos probables cuanto mayor sea su valor.
3. Al aumentar el número de medidas, la media aritmética de los errores aleatorios de una muestra (conjunto de medidas) tiende a cero.
4. Para un método de medida determinado, los errores aleatorios no exceden de cierto valor.
Por tanto, este tipo de errores son inevitables y la única forma de eliminarlos o disminuir su influencia es realizando varias medidas y tomar la media de todas ellas.



* Error estático: Es la diferencia entre las señales de entrada y salida durante el período estacionario o permanente, se lo estudia en el campo complejo ya que se dispone de las transferencias, para ello se utiliza el teorema del valor final. Sea e(t) la función error, se define el error estacionario como:
ess= al limite de e(t), cuanto t, tiende a infinito =al limite de s.E(s), cuando s tiende a 0.
* Error dinámico: Es la diferencia entre las señales de entrada y salida durante el período transitorio, es decir el tiempo que tarda la señal de respuesta en establecerse.

* Error de cero: Son aquellos que se presentan cuando el ajuste del cero de los instrumentos no está bien definido, es decir, cuando el instrumento de medida se encuentra descalibrado. Por ejemplo, el que tiene una balanza cuyo cero no está bien ajustado por defecto de los brazos. Estos errores de deben detectar e intentar eliminar, ya que no admiten tratamiento estadístico.

* Ganancia: Es proporcional al valor de la entrada, se expresa como la diferencia entre la pendiente de la característica real y la ideal, se expresa en tanto por ciento por una entrada del fondo de escala.

* No linealidad: Es todo aquello que viola las reglas de la linealidad. Se define como la máxima diferencia entre la característica de transferencia real con respecto a una línea recta (generalmente se supone como la característica ideal).

* Error relativo: Es la relación que existe entre el error absoluto y la magnitud medida, es adimensional, y suele expresarse en porcentaje.

* Error absoluto: Es la diferencia en positivo entre el número dado o valor exacto y el número aproximado.

* Fondo Escala: Es el porcentaje del Límite Superior de medición del instrumento.
* Cifras significativas: Son todos aquellos dígitos de un número que se conocen con seguridad (o de los que existe una cierta certeza).
* Redondeo de números: Consiste en hacer un cálculo aproximado para acercarse lo más posible a la respuesta correcta de una suma, resta, multiplicación o división. Resulta más fácil y rápido estimar que obtener la respuesta exacta. Si la cifra a descartar es mayor que cinco se utiliza este método, pero si es menor que cinco se usa el truncamiento.
- Estimación del error en una medida directa:
* Media: o promedio, de una cantidad finita de números, es igual a la suma de todos ellos dividida entre el número de sumandos. Es uno de los principales estadísticos muestrales. Expresada de forma más intuitiva, podemos decir que la media (aritmética) es la cantidad total de la variable distribuida a partes iguales entre cada observación.
* Desviación estándar: También conocida como desviación típica, es una medida de dispersión usada en estadística que nos dice cuánto tienden a alejarse los valores puntuales del promedio en una distribución. De hecho, específicamente, la desviación estándar es "el promedio de la distancia de cada punto respecto del promedio". Se suele representar por una S o con la letra sigma .
La desviación estándar de un conjunto de datos es una medida de cuánto se desvían los datos de su media. Esta medida es más estable que el
recorrido
y toma en consideración el valor de cada dato.
* Distribución normal: También llamada distribución de Gauss o distribución gaussiana, es la distribución de probabilidad que con más frecuencia aparece en estadística y teoría de probabilidades. Esto se debe a dos razones fundamentalmente:
- Su función de densidad es simétrica y con forma de campana, lo que favorece su aplicación como modelo a gran número de variables estadísticas.
- Es, además, límite de otras distribuciones y aparece relacionada con multitud de resultados ligados a la teoría de las probabilidades gracias a sus propiedades matemáticas
.

* Error de lectura: Cuando se habla de lectura de un instrumento de medida indicador, se quiere significar la referencia de la posición relativa del índice y de la graduación, en esta apreciaciones se comete un error de lectura debido a las siguientes causas:

* Error de paralaje: este tipo de error resulta cuando la visual del oiperador no se encuentra perpendicular a la aguja del istrumento, sino más bien se encuentra ubicado en un cierto ángulo del mismo.

*Error debido al límite del poder separador del ojo humano : Se sabe que en condiciones normales de visibilidad la distancia angular mínima necesaria para observar dos puntos A y B separados según la figura, es de 2 minutos. En general, las escalas son, leídas desde una distancia media de aproximadamente 250 mm y esto muchas veces conlleva a errores de lectura por mucha distancia entre el instrumento y el observador.

*Error de estimación : se comete al leer valor de la desviación encontrándose la aguja entre dos divisiones sucesivas de la escala; en este caso existe cierta incertidumbre en la apreciación de la posición exacta de la aguja sobre la escala, incertidumbre que no se hace leer indistintamente mayor o menor que el verdadero y en una cantidad representada por la menor fracción que puede apreciarse de la división considerada sobre la escala.

De aquí sometida esta desviación a la lectura por distintos observadores, los valores registrados por cada uno de ellos no coinciden generalmente. La apreciación de la fracción de división difiere de uno a otro, aun cuando el poder separador visual fuera igual para todos ellos.

* Ajuste de los minimos cuadrados: Es una técnica de optimización matemática que, dada una serie de mediciones, intenta encontrar una función que se aproxime a los datos (un "mejor ajuste"). Intenta minimizar la suma de cuadrados de las diferencias ordenadas (llamadas residuos) entre los puntos generados por la función y los correspondientes en los datos. Específicamente, se llama mínimos cuadrados promedio (LMS) cuando el número de datos medidos es 1 y se usa el método de descenso por gradiente para minimizar el residuo cuadrado. Se sabe que LMS minimiza el residuo cuadrado esperado, con el mínimo de operaciones (por iteración). Pero requiere un gran número de iteraciones para converger.
Un requisito implícito para que funcione el método de mínimos cuadrados es que los errores de cada medida estén distribuidos de forma aleatoria.


*Propagación del error: dice que cuanto menor sea el número de pasos intermedios que efectuemos para alcanzar la solución, menor será el error cometido.

*Error de los parámetros: Es aquel que se obtiene al aplicar métodos matemáticos inexactos. De por si, la toma de medidas trae consigo distintos tipos de errores, pero al aplicarle estos métodos dicho error se extiende y los resultados tienden a dar inexactos.