Pontificia universidad javeriana facultad de ingenieria carrera de ingenieria de sistemas



Descargar 287.56 Kb.
Página3/8
Fecha de conversión10.01.2017
Tamaño287.56 Kb.
1   2   3   4   5   6   7   8

2. Descripción del Proyecto

2.1 Visión global


El presente trabajo de grado recolecta todo el proceso que fue llevado a cabo para realizar el estudio de minería de datos El objetivo de este estudio es identificar conductas o patrones de comportamiento en medianas y grandes organizaciones relacionados con las prácticas de impresión y de ese modo poder establecer estrategias que reduzcan el consumo de recursos o materias primas necesarias para estas prácticas.

2.2 Objetivo general


El objetivo general del presente trabajo de grado es realizar un estudio de minería de datos con el fin de identificar si existen o no patrones de consumo relacionados con prácticas de impresión dentro de medianas y grandes empresas.

2.3 Fases Metodológicas o conjunto de objetivos específicos


En esta sección se presentan los objetivos específicos que se cumplirán durante el desarrollo del trabajo de grado.


  • Estudiar y analizar cuál es la naturaleza del negocio, cuál es la situación actual y qué se desea solucionar con la presente investigación.

  • Realizar el proceso de abstracción, recopilación y familiarización de datos.

  • Realizar actividades que filtren y organicen los datos relevantes para la investigación.

  • Seleccionar una o varias técnicas de modelado para el estudio de minería de datos.

  • Evaluar y verificar que el modelo construido para el análisis de los datos sea el indicado.

  • Organizar y presentar los resultados obtenidos a partir del estudio de minería de datos realizado.


II - MARCO TEÓRICO


En esta sección se presenta el marco teórico del presente trabajo de grado.

1. Marco Contextual


La Ilustración 1 contiene el marco contextual del marco teórico.

Ilustración : Marco Contextual

Los libros, artículos, publicaciones y demás documentos que sustentan la base teórica del estudio de minería de datos se encuentran descritos en las referencias y bibliografía del documento. Sección VI. Referencias y Bibliografía.

2. Marco Conceptual


La Ilustración 2 contiene el marco conceptual del marco teórico.

Ilustración : Marco Conceptual


2.1 Historia


La minería de datos es entendida como la búsqueda de patrones o comportamientos similares que se encuentren en bases de datos de una significativa amplitud. Lo anterior se logra con el soporte en áreas como modelos estadísticos y computación gráfica, que resulten en la identificación y análisis de estos patrones.

El nombre minería de datos se deriva de la relación entre el concepto “buscar” información relevante para una compañía en bases de datos de gran amplitud y “minar” una montaña de datos de manera que se encuentre información valiosa para la compañía o el negocio. Resultando en la similitud entre ambos procesos para buscar información significativa en amplias bases de datos. [1]

Sus inicios tienen lugar desde los años sesenta, donde se establece un vínculo entre la idea de identificar correlaciones que existieran entre datos pertenecientes a una base de datos sin ruido, con el concepto de minería de datos, esto sin contar previamente con una hipótesis. Una base de datos sin ruido se refiere a documentos que son recuperados por el sistema pero que no representan mayor relevancia, como resultado de una estrategia de búsqueda superficial y aplicable a la mayoría de conceptos. [1]Así mismo, otros conceptos similares eran relacionados con esta descripción, estos son: “data fishing” y “data archaeology”. Es importante mencionar, que la base de la minería de datos inicia una vez que las empresas inician el almacenamiento de datos por medio de computadores.

Fue en los inicios de los años ochenta, donde los académicos enfocados en algunos casos al área de ciencias computacionales: RakeshAgrawal, GioWiederhold, Robert Blum y Gregory Piatetsky-Shapiro, entre otros, empezaron a sentar bases más sólidas que permitieran afianzar el concepto de minería datos y KDD, por sus siglas en inglés, “Knowledge Discovery in Databases” o concepto de extracción de conocimiento. Este último concepto, KDD, se refiere al proceso de obtención de datos clave y por consiguiente al conocimiento significativo de una base de datos o repositorio de información. [2]

En la práctica, los términos Minería de datos y KDD suelen usarse como si fueran totalmente equivalentes; no obstante, es clave mencionar que la minería de datos corresponde a la etapa de descubrimiento dentro del proceso de KDD. [3]

Una vez, el término se empezó a afianzar con el concepto actual de minería de datos, la década de los ochenta finalizó únicamente con un par de empresas que ofrecieran esta tecnología. A medida que el tiempo y la sociedad avanzaron, conjuntamente la minería de datos se abrió campo, logrando ampliar el portafolio de empresas que ofrecen el servicio a más de cien, iniciando el año 2000.

Actualmente la minería de datos cuenta con soporte tecnológico fuerte que le permite tener madurez y confianza en sus usuarios, los tres soportes tecnológicos con los que cuenta son los siguientes:


  • Recopilación de datos de forma masiva.

  • Computadoras poderosas con multiprocesadores.

  • Los algoritmos de minería de datos. [4]

2.2 Conceptos Básicos


La Ilustración 3 contiene cada uno de los conceptos básicos necesarios para entender e significado de minería de datos.

Ilustración : Conceptos Básicos

La descripción de cada uno de los conceptos enunciados en el cuadro anterior será definida en el documento Anexo1. Glosario.


2.3 Conceptos sobre la problemática


La Ilustración 4 contiene los conceptos sobre la problemática planteada en el presente trabajo de grado. Estos conceptos están orientados a la lógica del negocio.

Ilustración : Conceptos sobre la problemática



Impresión

Reproducción de un texto o una ilustración en una imprenta, por medio de dispositivos de ordenadores o impresoras. [30]



Consumo de recursos

Una situación común dentro de las empresas es el consumo anormal de recursos ofrecidos por parte de sus empleados. Las empresas les permiten tener una libertad en el manejo de dichos recursos, resultando en algunos casos en un descontrol de la situación y consecuentemente afectando algunos procesos dentro de las compañías.

Un ejemplo de los recursos de las empresas está relacionado con la impresión de documentos. Esta facilidad está destinada para que los empleados de la empresa tengan la posibilidad de imprimir documentos relacionados con la operación de la misma y apoyarse en los mismos para el desarrollo de su papel dentro de la organización. No obstante, la cultura de impresión controlada no es asumida por todos los empleados y en la mayoría de los casos se refleja un mal uso de esta facilidad.

Como resultado de un mal uso de este recurso la empresa se ve afectada en varios niveles. Los recursos de la empresa se ven afectados como el papel, la tinta, la luz, el uso de las máquinas. Lo anterior, en conjunto afecta negativamente a una organización.



Medianas/ Grandes empresas

De acuerdo con el Ministerio de Comercio, Industria y Turismo, o su sigla correspondiente “MinCIT”, una mediana empresa corresponde a una cuya planta de personal se encuentre entre cincuenta y uno (51) y doscientos (200) trabajadores. De otro lado, sus activos totales deben ser entre cinco mil uno (5.001) a treinta mil (30.000) salarios mínimos mensuales legales vigentes. La clasificación del tamaño empresarial se puede realizar con al menos uno de estos criterios.

Las empresas grandes, son caracterizadas superando los límites superiores de los criterios para mediana empresa, es decir, los activos deben ser superiores a 30.000 salarios mínimos legales vigentes. [7]

El salario mínimo legal vigente para 2013 es de $589.500. [8]

Ley de Protección de datos

La ley estatutaria 1581 de 2012, por la cual se dictan disposiciones generales para la protección de datos personales y el objeto de la ley es el siguiente:” La presente ley tiene por objeto desarrollar el derecho constitucional que tienen todas las personas a conocer, actualizar y rectificar las informaciones que se hayan recogido sobre ellas en bases de datos o archivos, y los demás derechos, libertades y garantías constitucionales a que se refiere el artículo 15 de la Constitución Política; así como el derecho a la información consagrado en el artículo 20 de la misma” [9]


2.4 Técnicas Minería de Datos


La Ilustración 5 contiene las diferentes técnicas que pueden ser aplicadas en un estudio de minería a de datos.

Ilustración : Técnicas de Minería de Datos

Las técnicas de minería de datos se dan como resultado de largos procesos de investigación y desarrollo de productos. Partieron cuando en un principio se inició el almacenamiento y análisis de datos por medios computacionales, permitiendo una mejora en el procesamiento de datos, en el acceso a la información y navegación por sistemas de información de manera más completa y con mayor acceso.

La minería de datos ha permitido evolucionar desde un concepto de análisis de datos dirigido al descubrimiento del conocimiento. Lo anterior partiendo de un tratamiento automatizado de los datos en evaluación y haciendo uso de los algoritmos pertinentes.

De esta manera, las técnicas de minería de datos se clasifican en dos grandes categorías: La minería de datos dirigida y la no dirigida. Las dirigidas también son conocidas como supervisadas y se caracterizan por predecir el valor de un atributo que pertenece a un conjunto de datos. El procedimiento consiste en realizar la predicción de datos, donde su atributo es desconocido, partiendo de una relación existente entre este atributo desconocido y otros conocidos. La naturaleza de este algoritmo es predictiva.

De otro lado, se encuentra la minería de datos no dirigida, donde la base del algoritmo consiste en la identificación de patrones y tendencias de los datos actuales. Esta técnica no considera datos históricos, en la medida que no son considerados maduros. [10]


2.4.1 Las técnicas dirigidas


Redes Neuronales

Conocido en inglés como “Neural Networks”, se refiere a grupos de unidades no-lineales que se encuentran interconectadas entre sí y organizadas por etapas. Este grupo de unidades pueden partir de funciones matemáticas o del almacenamiento de bases de datos en sistemas digitales como computadores. [3]

Son desarrollados bajo modelos matemáticos que permiten hacer computación inteligente. El desarrollo de modelos matemáticos permite llevar a cabo tareas y algoritmos en computadores que no se pueden usar usualmente, tales como reconocimiento de patrones, memorias y aprendizaje asociativo, predicción de series de tiempo, segmentación, entre otros. [11]

El procesamiento de los datos es distribuido a todos los procesadores o “neuronas” que realizan paralelamente el procesamiento computacional, resultando en una alta facilidad para un procesamiento masivo de datos y por lo tanto en un análisis exploratorio de los mismos. [12]



Árboles de decisión

En la mayoría de situaciones reales, ya sea en empresas o en individuos se presentan momentos donde se deben tomar decisiones que conllevaran a una serie de resultados y consecuencias finales. Estas decisiones deben partir de la derivación de una serie de eventos probabilísticos que en conjunto afectan el resultado final. No obstante, para el decisor estos resultados de los eventos probabilísticos no se pueden conocer en el momento en que se debe tomar la decisión, de manera que el decisor debe fundamentar su decisión en las estimaciones de las probabilidades de los eventos aleatorios que están asociados al resultado final.

Con base en lo anterior, los árboles de decisión representan una herramienta de análisis para la estructuración y evaluación de situaciones que se encuentran bajo incertidumbre. La estructura principal de los árboles de decisión considera las diferentes alternativas a cada situación y asocia un evento probabilístico a las mismas, así mismo, presenta la secuencia del proceso de decisión y los resultados finales para cada ruta de acción. [13]

Los componentes de un árbol de decisión son los siguientes:



  • Las alternativas de decisión o posibles cursos de acción para el decisor.

  • Los eventos probabilísticos asociados al proceso de decisión, es decir, los que se encuentran bajo incertidumbre pero de alguna manera afectan el resultado final.

  • La información de consecuencias relevantes, es decir, cómo afecta el resultado de esa decisión, por ejemplo económicamente.

  • La secuencia del proceso de decisión o el orden en que debe ser estructurado el proceso y la relación entre esas decisiones y los eventos probabilísticos.

Una vez se estructure el árbol de decisión, considerando todos sus componentes, el decisor podrá evaluar cada curso de acción en conjunto y de esta manera soportar su decisión final a partir de dichas estimaciones y resultados.

Es clave mencionar que una de las consecuencias de aplicar esta técnica es que las variables son evaluadas independientemente una de la otra y no pueden ser descubiertas reglas de relación entre ellas. [14]



Regresión

La regresión hace referencia a una técnica estadística a partir de una ecuación matemática que establece como se relacionan las variables estudiadas. [15]

Las regresiones permiten hacer predicciones sobre una variable dependiente, usualmente denominada “y” a partir de unas o varias variables independientes usualmente denominadas “x”, entre las que se existe relación. Lo anterior buscando siempre el menor error. [16]

Adicionalmente se puede afirmar que la forma aceptada y usada para predicciones continuas, es estructurarlo de manera que la salida o resultado sea una suma lineal de los valores que adaptan los atributos y cada uno ponderado de acuerdo al peso que le corresponda. Lo anterior es conocido como una regresión lineal y el proceso que permite identificar que peso le corresponde a cada atributo es conocido como el procedimiento estadístico denominado regresión. [17]



Series Temporales

Técnica referente a una secuencia de valores observados a lo largo de un periodo o tiempo, que se encuentran ordenados cronológicamente. Las series de tiempo son enfocadas en las series de datos en los que su próximo valor no puede ser definido con certeza, lo anterior es denominado una serie no determinista o aleatoria. La metodología tradicional para aplicar esta técnica descompone la serie en: tendencias, variación estacionalidad o periódica y otras fluctuaciones irregulares.



  • La tendencia está relacionada con la dirección general de una variable en un periodo de observación, una forma de medir esta dirección es observando el cambio del promedio o media de la serie en un periodo largo de tiempo. Una medida para detectar y eliminar tendencias son los filtros, tales como las medias móviles.

  • La estacionalidad corresponde a las fluctuaciones de una variable cada cierto periodo de tiempo, considerablemente cortos.

  • Otras fluctuaciones irregulares corresponden a los valores residuales que resultan del proceso una vez sea observada la tendencia de la serie y sus variaciones por periodos de tiempo. [5]


2.4.2 Las técnicas no dirigidas


Detección automática de Clúster

También conocido como agrupamiento, consiste en la detección de grupos de individuos, es un aprendizaje no supervisado y no se conocen sus atributos, de manera que se busca determinar grupos o clústeres diferenciados del resto.

El objetivo es buscar grupos mutuamente excluyentes, buscando que cada dato dentro del grupo este lo más cercano posible a otros y por su parte, los grupos diferentes se encuentren alejados entre sí. [3]

El algoritmo divide un conjunto de datos en un número determinado de grupos, este número se conoce como “k”, en la normalmente expresión para este algoritmo “k-means”. Ésta técnica funciona mejor si la entrada del conjunto de datos es numérica. Es importante considerar que la técnica puede ser aplicada sin previo conocimiento del conjunto de datos ni de la estructura que va a ser descubierta y los clústeres resultantes son detectados automáticamente y podrían no representar otra interpretación natural. [14]



Detección de desviaciones

Consiste principalmente en detectar los cambios más significativos en el conjunto de datos a evaluar con respecto a valores pasados o con comportamiento normal. Su mayor uso es el filtro de altos volúmenes de datos que son menos probables de ser interesantes para el estudio. No obstante, la técnica requiere mayor concentración en determinar bajo qué punto o medida dicha desviación es significativa para aplicar dentro de los datos en consideración. [18]



Segmentación

Esta técnica consiste en la separación del conjunto total de datos en subconjunto o clases, las cuales pueden ser exhaustivas y exclusivas o jerárquicas y superpuestas. Esta técnica puede ser trabajada con otros algoritmos aplicables a cada clase considerada, tales como “Clustering”. El usuario usualmente cuenta con alta capacidad para formas estas clases, soportado en herramientas visuales. [18]



Reglas de Asociación

Reglas que implican relaciones entre un conjunto de objetos pertenecientes a una base de datos. Durante el proceso de establecer reglas de asociación se generan múltiples niveles de abstracción. [6]

Una vez se estudian y establecen dichas reglas de asociaciones dentro de una base de datos, se pueden identificar patrones de comportamiento, es decir, asociaciones entre los registros de datos. [18]

En conclusión las reglas de asociación son otra forma de generar reglas en el conjunto de datos. Sin embargo, en algunos casos las herramientas usadas generan reglas que resultan ser obvias y por lo tanto no ofrecen un valor agregado al análisis. [19]



Patrones Secuenciales

Referente al reconocimiento de patrones, basado en técnicas orientadas a evaluar la similitud y diferencia entre atributos o características de los datos evaluados. [3]



2.5 Herramientas Minería de Datos


La Ilustración 6 contiene las herramientas utilizadas para la aplicación de técnicas de un estudio de minería de datos, las herramientas están organizadas en dos grupos: Software libre y software licenciado.

Ilustración : Herramientas Minería de Datos

En los últimos años, dados los altos avances que se han logrado en este campo, la tecnología ha desarrollado amplias y sólidas herramientas que permiten a sus usuarios aplicar de la manera más adecuada las técnicas de minería de datos a conjuntos de datos pertenecientes a algún contexto.

Las herramientas desarrolladas pueden ser de software libre o licenciado. Dentro de las herramientas libres, se destacan las siguientes:


2.5.1 Software Libre


WEKA

El desarrollo de la herramienta Weka tuvo lugar en la Universidad de Waikato ubicada en Nueva Zelanda y el nombre corresponde a la abreviación conformada por las iniciales de “Waikato Enviroment for Knowledge Analysis”. Se encuentra escrito en lenguaje Java y puede ser distribuido bajo los términos de Licencia Pública General, es decir, Software libre. Así mismo, ha sido probado para funcionar en ambiente Linux, Windows y Mancintosh.

La minería de datos es conocida como una ciencia experimental, que debe considerar diversos esquemas de aprendizaje en la medida que los conjuntos de datos varían entre sí. De esta manera, la herramienta Weka corresponde a un conjunto de algoritmos de aprendizaje y de pre y post procesamiento de datos. El diseño de la herramienta permite probar de manera ágil y flexible diversos algoritmos aplicables a esta ciencia. Adicionalmente proporciona soporte al usuario que va desde la preparación e inclusión de los datos de entrada y la evaluación de sistemas estadísticos, hasta los resultados del proceso para cualquier conjunto de datos.

Todo el proceso de interacción del usuario con la herramienta se realiza a través de una interfaz gráfica que le permite identificar y por lo tanto comparar los diferentes métodos. Consecuentemente, la herramienta brinda la posibilidad que el usuario determine los algoritmos de aprendizaje más apropiados para el tipo de datos sobre los que se está trabajando. Como resultado, el usuario puede observar todos los esquemas posibles por medio de un pre procesamiento del conjunto de datos y analizar los resultados conforme su desempeño bajo cada esquema, lo anterior sin necesidad de que el usuario desarrolle algún tipo de algoritmo.

Los métodos incluidos en la herramienta son: regresión, clasificación, “Clustering”, reglas de asociación y selección de atributos. La entrada del conjunto de datos se realiza por medio de una tabla leída desde un archivo o creada a partir de una base de datos.

Existen tres formas de usar Weka:



  • Aplicar al conjunto de datos un método de aprendizaje y analizar las salidas de manera que se pueda aprender más sobre los datos.

  • Utilizar modelos aprendidos para generar predicciones.

  • Aplicar varios “learners” y comparar su rendimiento de manera que se elija uno para la predicción.

Los esquemas de aprendizaje son el recurso más importante que ofrece la herramienta a sus usuarios.

De otro lado, el pre-procesamiento de los datos se realiza por medio de los llamados “filtros”, seleccionados de un menú.

La interfaz le permite al usuario guiarse presentándole diversas opciones en un menú y desplegando las opciones aplicables a medida que se va avanzando en la selecciónLas interfaces disponibles en Weka son: “Explore”, “The Knowledge Flow Interface”, “Experimenter” y “Command-Line”. La primera interfaz es aplicable a pequeños-medianos problemas y mantiene lo trabajado en una memoria principal, la segunda interfaz permite diseñar configuraciones para procesamiento de datos fluidos y la tercera interfaz está diseñada para ayudar a determinar qué métodos y parámetros funcionan mejor para el problema, en caso de utilizar técnicas de regresión y clasificación.

La funcionalidad básica de Weka se determina con las interfaces disponibles, así mismo, el acceso de los datos se puede hacer mediante comando de texto, dando camino a todas las funciones del sistema donde el usuario debe elegir entre las interfaces disponibles.

Por último, la herramienta se encuentra disponible en la web y puede ser descargada de una plataforma específica de instalación o un archivo ejecutable Java. [20]

RAPIDMINER

RapidMiner es otro entorno libre usado para minería de datos, que permite el análisis de datos por medio del encadenamiento de operadores en un entorno gráfico. Es considerada una herramienta líder en el mundo de código abierto y ampliamente usada en el mercado. La primera versión fue desarrollada por la universidad de Dortmund en 2001.

Dentro de sus características, se resaltan:


  • Integración de datos.

  • Transformación de metadatos, inspección de diseño de datos y metadatos.

  • Reconocimiento de errores y propuestas de ajustes.

  • Cuenta con una representación interna basada en archivos XML.

  • Cuenta con una interfaz gráfica de usuario para el diseño de prototipos interactivos.

  • Cuenta con una línea de comando para ser automatizado.

  • Cuenta con una facilidad de Java que simplifica el uso de esta herramienta.

  • Ofrece más de 500 operadores para algoritmos de aprendizaje, operadores de Weka, operadores de pre-procesamiento de datos, meta operadores, visualización y evaluación de desempeño.

  • Desde 2010 posee integración con R (entorno de programación para análisis estadístico y gráfico), la cual es presentada a continuación de la descripción de la herramienta RAPIDMINER.

El conjunto de datos de entrada a la herramienta puede ser leído en diferentes formatos. Los formatos que principalmente maneja, tanto de archivo de lectura como de escritura son:

  • Formatos .arff, resultantes del uso de “Arff Eaxmple Source”

  • Formatos de salida de “Data Base Example Source”

  • Archivos resultantes del operador “Example Source”, donde la descripción de los atributos debe guardarse en archivo XML con extensión .aml [21]

Los operadores se pueden discriminar en los siguientes tipos:

  • Operadores Básicos: Permiten aplicar, agrupar, desagrupar y actualizar modelo, así como operar cadena.

  • Operadores de Core: Operador de línea de comando, definición de macros, experimento, salida de archivo múltiple y recuperación de entrada/salida, limpieza de memoria y proceso.

  • Operadores de entrada/salida: permite leer registros y escribir valores.

  • Operadores de aprendizaje: Operadores de pre y post procesamiento de datos, de visualización y de validación de desempeño.

Por su parte, la interfaz se compone de las siguientes partes principales:

  • Árbol de procesos: área de entrada de definición modelo y operadores.

  • Área de resultados: salidas de la corrida del modelo y de la configuración.

  • Área de compilación y ejecución: log de procesos ejecutados. [22]

R

Lenguaje de programación y entorno de software libre para computación y gráficos estadísticos. Proporciona técnicas para simulación, modelado lineal y no lineal, análisis de series temporales, pruebas estadísticas clásicas, clasificación, agrupación en clústeres, entre otros. El usuario tiene acceso a funciones como análisis de datos, manejo y almacenamiento de datos, funciones gráficas de visualización y lenguaje de programación simple. [23]



ORANGE

Herramienta ambientada para programación visual o escritura C++ y Python. La herramienta funciona en Windows, Mac OS X y en diversos sistemas operativos Linux.

ORANGE contiene diversos componentes para pre-procesamiento de datos, característica de puntuación y filtrado, modelado, evaluación del modelo, y técnicas de exploración. [24]

JHepWork

JHepWork es una herramienta libre para análisis de datos y de código abierto. Tiene por objeto crear un entorno de análisis de conjunto de datos por medio de paquetes de código abierto con una interfaz accesible a los usuarios. Así mismo, está configurada para presentar diversos paquetes numéricos implementados en lenguaje Java que le permite al usuario acceder a funciones matemáticas, números aleatorios y otros algoritmos de minería de datos. [25]



KKIME

KNIME (Konstanz Information Miner) es una plataforma libre, comprensible para integración de datos, procesamiento, análisis y exploración. Ofrece a los usuarios la facilidad de crear flujos o tuberías de datos, así como de ejecutar selectivamente algunos o todos los pasos de análisis, para finalmente analizar los resultados y modelos. El lenguaje que utiliza es Java, basado en Eclipse. Los usuarios pueden añadir texto, imágenes y procesamiento de series de tiempo. Es importante mencionar que se puede integrar con otras herramientas libres como Weka. [25]


2.5.2 Software licenciado


DB2 INTELLIGENT MINER

Herramienta distribuida según la arquitectura cliente/servidor, es comercializada por IMB. Los paquetes que ofrece permiten soportar tareas de agrupamiento, asociaciones, patrones, clasificación y orientar al descubrimiento de relaciones entre los datos. [26]



STATISTICA

Herramienta creada por StatSoft. Permite amplias aplicaciones estadísticas y es utilizada en minería de datos. Cuenta con las siguientes características:



  • Permite trabajar con un alto volumen de información. Las bases de datos pueden ser importadas desde formatos Excel, Oracle o SQL.

  • Permite el pre-procesamiento de datos.

  • Permite crear modelos de análisis.

  • Permite la visualización.[27]

SPSS

Software que cuenta con herramienta visual desarrollada por ISL con una arquitectura diseñada cliente/servidor. Cuenta con las siguientes características:



  • Acceso a datos.

  • Procesamiento de datos.

  • Técnicas de aprendizaje (reglas de asociación y redes neuronales).

  • Resultados con visualización gráfica (histogramas, diagramas, gráficos).

  • Informes de resultados en texto o html. [26]
1   2   3   4   5   6   7   8


La base de datos está protegida por derechos de autor ©bazica.org 2016
enviar mensaje

    Página principal