lunes, 29 de marzo de 2010

PROCESAMIENTO DE DATOS

UNIDAD III: PROCESAMIENTO DE DATOS

3.1- LA MEDICION
La medición es la determinación de la proporción entre la dimensión o suceso de un objeto y una determinada unidad de medida. La dimensión del objeto y la unidad deben ser de la misma magnitud. Una parte importante de la medición es la estimación de error o análisis de errores.
Es comparar la cantidad desconocida que queremos determinar y una cantidad conocida de la misma magnitud, que elegimos como unidad. Teniendo como punto de referencia dos cosas: un objeto (lo que se quiere medir) y una unidad de medida ya establecida ya sea en Sistema Ingles, Sistema Internacional, o Sistema Decimal.
Al resultado de medir lo llamamos Medida.
Cuando medimos algo se debe hacer con gran cuidado, para evitar alterar el sistema que observamos. Por otro lado, no hemos de perder de vista que las medidas se realizan con algún tipo de error, debido a imperfecciones del instrumental o a limitaciones del medidor, errores experimentales, por eso, se ha de realizar la medida de forma que la alteración producida sea mucho menor que el error experimental que se pueda cometer.

.3.2- LA ESTADISTICA

La estadística es una herramienta con base matemática referente a la recolección, análisis e interpretación de datos, que busca explicar condiciones regulares en fenómenos de tipo aleatorio.


Distribución normal.
Es transversal a una amplia variedad de disciplinas, desde la física hasta las ciencias sociales, desde las ciencias de la salud hasta el control de calidad. Se usa para la toma de decisiones en áreas de negocios o instituciones gubernamentales.
La estadística se divide en dos elementos:
La estadística descriptiva, que se dedica a los métodos de recolección, descripción, visualización y resumen de datos originados a partir de los fenómenos en estudio. Los datos pueden ser resumidos numérica o gráficamente. Ejemplos básicos de parámetros estadísticos son: la media y la desviación estándar. Algunos ejemplos gráficos son: histograma, pirámide poblacional, clúster, etc.
La inferencia estadística, que se dedica a la generación de los modelos, inferencias y predicciones asociadas a los fenómenos en cuestión teniendo en cuenta la aleatoriedad de las observaciones. Se usa para modelar patrones en los datos y extraer inferencias acerca de la población bajo estudio. Estas inferencias pueden tomar la forma de respuestas a preguntas si/no (prueba de hipótesis), estimaciones de características numéricas (estimación), pronósticos de futuras observaciones, descripciones de asociación (correlación) o modela miento de relaciones entre variables (análisis de regresión). Otras técnicas de modelamiento incluyen anova, series de tiempo y minería de datos.
Ambas ramas (descriptiva e inferencial) comprenden la estadística aplicada. Hay también una disciplina llamada estadística matemática, la cual se refiere a las bases teóricas de la materia. La palabra «estadísticas» también se refiere al resultado de aplicar un algoritmo estadístico a un conjunto de datos, como en estadísticas económicas, estadísticas criminales, etc.

3.3- LA NUEVA HIPOTESIS
Llegados a este punto, muchos científicos se plantan en esa teoría, en esa tesis recientemente formada y se niegan a aceptar más hipótesis como complemento o como variaciones de la teoría que inicialmente se creó. Muchas de las veces, la historia pone a cada uno en su lugar y los arqueólogos, antropólogos y demás investigadores de campo, demuestran que esa forma de pensar es errónea, que todo lo que hasta ahora ha sido puede dejar de ser, que lo que en un principio era algo inamovible ahora resulta ser totalmente incierto ya que florecieron unas nuevas pruebas que refutan parte de lo sostenido anteriormente.
Pero lo que es más importante, es que al margen de quien quiere mantener una teoría inicial como única, ignora que van apareciendo otro grupo de hipótesis entorno a la tesis inicial, hipótesis que por sí solas se van agrupando en lo que se denomina otra teoría alternativa, de manera que puede complementar a la anterior o entrar en conflicto con sus principios. Si esas nuevas hipótesis refuerzan la teoría inicial, se suman a esta como un complemento indispensable para el desarrollo del conocimiento humano del hecho estudiado. Sin embargo, si refutan parte o la totalidad de la tesis anterior, se convierte en otra teoría tan válida como la anterior y cuanto menos tan controvertida, de hecho muchas veces son ambas fácilmente sostenibles, aunque los criterios sean diferentes.
De esta forma y aunque existan dos teorías claramente diferenciadas, siempre surgen nuevas hipótesis alrededor de las mismas, que seguirán el mismo proceso de las anteriores, o bien se unirán a una de las dos teorías o se crearán nuevas teorías que pongan en tela de juicio las proposiciones hechas en las anteriores.

En cualquier caso, la historia nos está demostrando día a día, que las creencias, hipótesis, tesis, etc. etc., van quedando obsoletas con el tiempo. Van surgiendo nuevas hipótesis que cuestionan hechos o sucesos pasados y ponen en tela de juicio una auténtica cantidad de años de estudios y sacrificios, por lo que siempre es necesario actualizarlas, poner al día los principios que las forman, comprobar si siguen teniendo validez conforme el tiempo ha pasado y ha cambiado algunos preceptos o conceptos.
De todos modos la evolución en el conocimiento científico implica la aceptación de nuevos criterios, aunque en parte esa aceptación sea como una mera hipótesis

3.4- PROCESAMIENTO DE DATOS
Una vez concluidas las etapas de colección y procesamiento de datos se inicia con una de las más importantes fases de una investigación: el análisis de datos. En esta etapa se determina como analizar los datos y que herramientas de análisis estadístico son adecuadas para éste propósito. El tipo de análisis de los datos depende al menos de los siguientes factores.

a) El nivel de medición de las variables.
b) El tipo de hipótesis formulada.
c) El diseño de investigación utilizado indica el tipo de análisis requerido para la comprobación de hipótesis.

El análisis de datos es el precedente para la actividad de interpretación. La interpretación se realiza en términos de los resultados de la investigación. Esta actividad consiste en establecer inferencias sobre las relaciones entre las variables estudiadas para extraer conclusiones y recomendaciones (Kerlinger, 1982). La interpretación se realiza en dos etapas:
a) Interpretación de las relaciones entre las variables y los datos que las sustentan con fundamento en algún nivel de significancia estadística.
b) Establecer un significado más amplio de la investigación, es decir, determinar el grado de generalización de los resultados de la investigación.
Las dos anteriores etapas se sustentan en el grado de validez y confiabilidad de la investigación. Ello implica la capacidad de generalización de los resultados obtenidos.
“Analizar significa establecer categorías, ordenar, manipular y resumir los datos,” (Kerlinger, 1982, p. 96). En esta etapa del proceso de investigación se procede a racionalizar los datos colectados a fin de explicar e interpretar las posibles relaciones que expresan las variables estudiadas.
El diseño de tablas estadísticas permite aplicar técnicas de análisis complejas facilitando este proceso. El análisis debe expresarse de manera clara y simple utilizando lógica tanto inductiva como deductiva.

Los resultados de una investigación basados en datos muéstrales requieren de una aproximación al verdadero valor de la población (Zorrilla, 1994). Para lograr lo anterior se requiere de una serie de técnicas estadísticas. Estas técnicas se derivan tanto de la estadística paramétrica como de la estadística no para métrica. La primera tiene como supuestos que la población estudiada posee una distribución normal y que los datos obtenidos se midieron en una escala de intervalo y de razón. La segunda no establece supuestos acerca de la distribución de la población sin embargo requiere que las variables estudiadas se midan a nivel nominal u ordinal (ver Weiers, 1993).

Las tablas diseñadas para el análisis de datos se incluyen en el reporte final y pueden ser útiles para analizar una o más variables. En virtud de éste último criterio el análisis de datos puede ser univariado, bivariado o trivializado dependiendo de la cantidad de variables que se analizan.