domingo, 5 de julio de 2020


Resultado de imagen para logo unitec campus en linea
Maestría en Administración de negocios (MBA)   Nombre de la asignatura: Analítica de datos
Docente: Mtro. Luis Roberto Pérez Macías
Periodo en el que se imparte: Del 13 de Julio al 18 de Agosto.


Objetivo general de la asignatura:

Al terminar el curso el alumno será capaz de:
• Contrastar las técnicas modernas de recopilación, interpretación y presentación de grandes bases de datos que genera una empresa en los mercados físicos y virtuales para la definición de mejores estrategias de negocio.


Foro 1:
Ubicado en Foros>Foro 1
Después de haber revisado los materiales e investigado sobre el tema, participar en el foro contestando:

Ø  ¿Cuáles son los conceptos fundamentales que componen la analítica de datos y los modelos de ecuaciones estructurales?


Las fechas de participación son del 13 al 19 de julio.
(Revisar la rúbrica de la actividad)


Los temas que incluyen las actividades de la semana 1 son:


1.- Metodología de analítica de datos
1.1 Conceptos fundamentales
1.2 Conceptos principales
1.3 Análisis Factorial
1.3.1 Exploratorio
1.3.2 Confirmatorio

2.- Modelos de ecuaciones estructurales
2.1 Conceptos fundamentales
2.3 Modelo de ventaja competitiva
2.4 Diagnostico de modelo

Semana 1:





El modelo de ecuaciones estructurales (Structura! Equation Modeling, SEM) permite examinar simultáneamente una serie de relaciones de dependencia, y es particularmente útil cuando una variable dependiente se convierte en variable independiente en ulteriores relaciones de dependencia. Además, muchas de las mismas variables afectan a cada una de las variables dependientes, pero con efectos distintos (Hair, et al, 2001). Se puede pensar que el modelo de ecuaciones estructurales es una extensión de varias técnicas multivariadas como la regresión múltiple y el análisis factorial (Kahn, 2006). Sin embargo, posee algunas características particulares que lo diferencian de las otras técnicas multivariadas. Una de las diferencias es la capacidad de estimar y evaluar la relación entre constructos no observables, denominados generalmente variables latentes. Una variable latente es un constructo supuesto (inteligencia, por ejemplo) que solo puede ser medido mediante variables observables (test de inteligencia, por ejemplo). En comparación con otras técnicas de análisis donde los constructos pueden ser representados con una única medición (puntajes brutos de un test, por ejemplo) y el error de medición no es modelado, el SEM permite empelar múltiples medidas que representan el constructo y controlar el error de medición específico de cada variable. Esta diferencia es importante ya que el investigador puede evaluar la validez de cada constructo medido. Otra característica particular es que para interpretar los resultados de SEM se deben evaluar cuidadosamente varias pruebas estadísticas y un conjunto de índices que determinan que la estructura teórica propuesta suministra un buen ajuste a los datos empíricos. Este ajuste se verifica si los valores de los parámetros estimados reproducen tan estrechamente como sea posible la matriz observada de covarianza (Kahn, 2006). Sin lugar a duda, el principal aporte que realiza el SEM es que permite a los investigadores evaluar o testear modelos teóricos, convirtiéndose en una de las herramientas más potentes para el estudio de relaciones causales sobre datos no experimentales cuando estas relaciones son de tipo lineal (Kerlinger, y Lee, 2002). No obstante, estos modelos nunca prueban la causalidad. En realidad, solo ayudan a seleccionar hipótesis causales relevantes, eliminando aquellas no sustentadas por la evidencia empírica. Así, los modelos causales son susceptibles de ser estadísticamente rechazados si se contradicen con los datos.

El principal impulso en la utilización de estos métodos y técnicas multivariadas ha sido el desarrollo de las computadoras. En la actualidad, se dispone de una variedad de programas computarizados que simplifican enormemente estas tareas y permiten la realización de análisis cada vez más poderosos y sofisticados. Existen al menos tres softwares altamente reconocidos y que actualmente están en uso. El primero de ellos es el LISREL (Linear Estructural Relations) que fue creado por Joreskog y sus colaboradores (Joreskog y Sorbom, 1996) para establecer y analizar estructuras de covarianza. Las primeras versiones de este programa requerían del establecimiento de planteamientos muy difíciles para el usuario que no tenía conocimiento matemático profundo. Luego, el programa llamado EQS (Structural Equation Modeling Software) que fue desarrollado por Bentler (1995) presenta planteamientos y símbolos del modelo más fáciles de comprender. Finalmente, el programa Análisis de Estructuras Momentáneas (Analysis of Moment Structures, AMOS) que fue creado por Arbuckle (2003), permite al usurario que especifique, vea y modifique el modelo de estructura gráficamente por medio del uso de herramientas gráficas sencillas. Cada uno de estos programas ha logrado que los investigadores usen con mayor facilidad el modelo de ecuaciones estructurales. Debido al crecimiento y la utilidad de esta técnica en la actualidad, se propone a continuación una introducción de los principales conceptos del SEM. Para poder exponer con mayor claridad la utilidad del SEM, se utilizará un simple ejemplo que ayudará al lector a comprender esta técnica.

A lo largo de la exposición del SEM, nos referiremos a la necesidad de una justificación teórica para la especificación de las relaciones de dependencia, modificaciones de las relaciones propuestas y muchos otros aspectos de la estimación de un modelo. Una teoría puede definirse como un conjunto sistemático de relaciones que ofrecen una explicación exhaustiva y consistente de un fenómeno (Hair, et al 2001). La necesidad de un modelo teórico para guiar el proceso de estimación se hace especialmente crítica cuando se hacen modificaciones del modelo.

Existen tres estrategias que un investigador puede adoptar en la utilización de sistemas de ecuaciones estructurales: 

(1) la estrategia de modelización confirmatoria, 
(2) la estrategia de modelos rivales,
(3) la estrategia de desarrollo del modelo. 

La aplicación más directa de los modelos de ecuaciones estructurales es una estrategia de modelización confirmatoria, donde el investigador especifica un modelo aislado y el modelo de ecuaciones estructurales se utiliza para evaluar su significación estadística. La investigación ha demostrado que las técnicas desarrolladas para evaluar los modelos de ecuaciones estructurales tienen un sesgo confirmatorio. Por lo tanto, aunque el modelo propuesto presente un ajuste aceptable, el investigador no ha probado el modelo propuesto, sino que solo ha confirmado que es uno de los varios modelos posibles. La estrategia de modelos rivales permite evaluar el modelo estimado con modelos alternativos. En muchas ocasiones el investigador se encuentra con modelos alternativos para representar una misma situación sin conocer cuál proporciona un nivel de ajuste mejor. Esta estrategia proporciona las líneas básicas para realizar esta comparación y seleccionar el más idóneo. Un ejemplo habitual de modelos rivales es el proceso de evaluación factorial de invarianza, la igualdad de modelos de factor entre grupos. Otro ejemplo refiere a los modelos anidados, en el que el número de constructos e indicadores permanecen constantes, pero el número de relaciones estimadas cambian. Finalmente, la estrategia de desarrollo del modelo difiere de las dos anteriores estrategias en que aunque se propone un modelo, el propósito del esfuerzo de modelización es mejorarlo a través de modificaciones de los modelos de medida y/o estructurales. El investigador que sigue esta estrategia intenta Re especificar un modelo básico para encontrar uno nuevo. (Cupani Marcos, 2012)




Semana 2
Entregable 1:
Ubicado en “Entregables y test>Entregable 1”

Después de haber revisado los materiales e investigado sobre el tema, El alumno crea una infografía que muestre los contenidos de los documentos compartidos por el docente

La infografía se puede crear en uno de los sitios que el docente sugiere o uno elegido por el alumno siempre y cuando sea una herramienta en línea.


La fecha límite de envío es del 20 al 26 de julio.
(Revisar la rúbrica de la actividad)
NOTAS IMPORTANTES: La redacción y ortografía será revisada por el profesor(a), así como la autenticidad de la información que se presenta.

Las instituciones y empresas privadas coleccionan bastante información (ventas, clientes, cobros, pacientes, tratamientos, estudiantes, calificaciones, fenómenos meteorológicos, etcétera, según su giro), aprovechando que las computadoras y los discos de almacenamiento se han abaratado, y las comunicaciones son también baratas y confiables. Esta información reside en bases de datos operacionales, llamadas así porque con ellas se lleva a cabo la labor sustantiva de la empresa: envío de mercancía a clientes, registro de estudiantes, tratamiento a pacientes, cobranza, entre otros.

Posteriormente la información se depura y sumariza (resume) para transferirla a bases de datos conocidas como bodegas de datos. Son “fotografías” periódicas (trimestrales, digamos) del estado de la empresa. Aquí se lleva a cabo la labor estratégica de la misma: averiguar qué pasa en ella. ¿Qué productos se venden significativamente menos? ¿Ha habido un auge inesperado de deserciones de las carreras en las ciencias sociales? ¿El aumento de la inversión en perforación de nuevos pozos no guarda proporción con la disminución de las reservas probables y probadas de hidrocarburos? Ésta es la zona de las decisiones estratégicas, y los sistemas usados para ellas se conocen como Sistemas de Apoyo a la Toma de Decisiones. Estos sistemas muestran al funcionario los indicadores principales del estado de la empresa (en el último bimestre, digamos). El funcionario indaga o averigua situaciones que él cree son de interés o preocupación. El sistema contesta con datos y gráficas para que aquél pueda tomar decisiones. Aunque el directivo o gerente tiene la experiencia necesaria, a menudo (por falta de tiempo, o porque no se le ocurrió) no mira situaciones que están tomando rumbos interesantes, peligrosos quizá. Así, ciertas decisiones importantes pueden ser soslayadas, ignoradas, o tomarse ya muy tarde. Se pueden así desperdiciar oportunidades o admitirse riesgos indeseables.

Recientemente, la computación ha inventado la minería de datos, en auxilio del directivo que toma decisiones. En las bodegas de datos se colocan “mineros”, algoritmos que buscan tendencias, anomalías, desviaciones o situaciones interesantes pero desconocidas, y otros eventos importantes. Estos mineros auxilian al directivo al mando del timón de la institución a mantener el mejor rumbo posible. Utilizan, además de las bases de datos, la inteligencia artificial (procedimientos para hallar grupos en situaciones similares, clasificar eventos nuevos en categorías conocidas, etcétera) y la estadística. Pero a diferencia de esta última, que toma una muestra de los datos y la estudia, la minería de datos estudia todos los datos. Mientras más datos se analicen, más precisa es, y su poder de detección y predicción aumenta.

¿De dónde proviene el mar de datos? Todas las organizaciones y empresas coleccionan y administran datos de su interés relacionados con personas, procesos u otro tipo de actividades para las cuales fueron creadas. Los más comunes son los relacionados con ventas de productos o servicios, empleados, pacientes o con clientes, o tan sofisticados como los que usa una organización dedicada a pronosticar el clima, o en actividades muy especializadas, como la detección de fraudes en el consumo de energía eléctrica.

Con el paso del tiempo Internet se ha introducido en la sociedad convirtiéndose en un elemento fundamental para estar actualizados en cualquier ámbito y, como no podía ser menos en el sector empresarial, ha entrado con gran fuerza. Las empresas han dado el salto al mundo online creando sitios webs en los que vender sus productos u ofrecer sus servicios e incluso llegando a aparecer negocios con carácter puramente online.

¿QUÉ ES LA ANALÍTICA WEB? Para definir la Analítica Web, en primer lugar encontramos una especificación de Digital Analytical Association que la clasifica como “la ciencia del análisis usando datos para comprender los patrones históricos con miras a mejorar el rendimiento y la predicción del futuro. El análisis de datos digitales se refiere a la información recogida en los canales interactivos.
Como principales estadísticas de tráfico se deben mencionar: 

  • Páginas vistas: es el número de páginas por las que navega un usuario cuando visita un sitio web. 
  • Sesión: secuencia de páginas que un usuario visita en un sitio web. 
  • Visitas: representan las sesiones que se abren en un sitio web en un periodo específico de tiempo. 
  • Visitante único: mide el número de usuarios que entran a un sitio web, en concreto, mide los dispositivos que entran. Por tanto, si dos usuarios acceden a la misma página desde el mismo dispositivo en tiempos diferentes sólo se contabilizará como un visitante único. 
  • Visitantes nuevos: son aquellos que no habían visitado previamente el sitio web. 
  • Visitantes recurrentes: aquellos que han visitado el sitio web en más de una ocasión en un periodo de tiempo. 
  • Visitas directas: se produce cuando un usuario escribe la dirección web del sitio que desea visitar directamente en el navegador. 
  • Visitas de otras fuentes: cuando provienen de los motores de búsqueda o cuando se producen a través de enlaces externos de otros sitios web.

Biografía consultada:

ANALÍTICA WEB Y EN REDES SOCIALES. HERRAMIENTAS DE ANÁLISIS” extraído de: https://repositorio.upct.es/bitstream/handle/10317/4036/tfg245.pdf;jsessionid=ED0673C69F0BF11352DDBD37E4429F0C?sequence=1

Introducción a Minería de Datos, Metodologías y Técnicas de Minería de datos, extraido de: http://www.ing.ula.ve/~aguilar/actividad-docente/IN/transparencias/clase40.pdf

Semana 3:

Foro 2: Ubicado en Foros>Foro 2 Después de haber revisado los materiales e investigado sobre el tema, participar en el foro contestando: 

¿Qué características deben tener los proveedores y consultores para ser contratados y formen parte de la estructura interna en el control de la analítica de datos? 

Las fechas de participación son del 27 de Julio al 2 de Agosto. (Revisar la rúbrica de la actividad) 

NOTA IMPORTANTE: La redacción y ortografía será revisada por el profesor(a), así como la autenticidad de la información que se presenta.

Para definir la Analítica Web, en primer lugar encontramos una especificación de Digital Analytical Association que la clasifica como “la ciencia del análisis usando datos para comprender los patrones históricos con miras a mejorar el rendimiento y la predicción del futuro. El análisis de datos digitales se refiere a la información recogida en los canales interactivos (online, móvil, social, etc.)”

Según la define Sergio Maldonado, “la analítica web es el análisis y presentación de datos recabados en internet con el propósito de ayudar a la empresa en la gestión y optimización de su estrategia digital”

También se define como “la recopilación, medición, evaluación y explicación racional de los datos obtenidos de internet, con el propósito de entender y optimizar el uso de un sitio web”

La evolución y la gran presencia de la Web en el mundo social y empresarial han transformado el modo en el que se realizan muchas actividades y negocios. Bajo esta situación la Analítica Web ha alcanzado un gran protagonismo y creemos que resulta indispensable para medir los resultados que se pueden obtener a través de la publicidad online. Las características de la Analítica Web han ido evolucionando, adaptándose de una forma muy similar a la propia evolución de la red ya que ambas se encuentran conectadas.

La Web en general ha pasado por varias etapas desde su comienzo; la Web 1.0, siendo su principal característica un mayor carácter informativo pasando por la Web 2.0 también denominada colaborativa, y llegando a la Web 3.0 o semántica. Estas últimas fases han conseguido que los usuarios participen activamente en la Web y no sólo sea utilizada como un mero sitio de obtención de información. 

Las herramientas de analítica web empezaron a aparecer en los años 90 y también son denominadas Analítica de Web 1.0. La finalidad de éstas era conocer la carga de trabajo de los servidores y calcular así su efectividad y eficiencia. Éstas presentaban problemas en la identificación de los usuarios y además tenían poca flexibilidad para segmentar la información. 

Los Indicadores Clave de Rendimiento (Keys Performance Indicators) son métricas para ayudar a definir el progreso de una web según los objetivos fijados

Son números diseñados para transmitir la información de manera sucinta sobre el progreso de la web. Los KPI deben estar bien definidos, bien presentados y crear expectativas, es decir, generar nuevos KPI o cuestiones sobre cómo mejorarlos. Consisten casi siempre en tasas, ratios, promedios o porcentajes, nunca números aislados simplemente. Los indicadores clave de rendimiento ofrecen un contexto para la información obtenida y ayudan a comprenderla, y están diseñados para resumir de manera significativa todos los datos obtenidos y para darles un significado lógico a estos datos1

Es el proveedor mundial en “Customer Experience Analytics”, es decir, una forma de analizar el comportamiento online de los usuarios en las páginas web de los clientes y mejorar su experiencia. 
ClickTale “sigue” y graba cada movimiento del ratón, clic y desplazamiento, creando vídeos que pueden verse en cualquier momento de las sesiones de navegación de las visitas. Además agrega miles de datos para crear mapas de calor57 y todo tipo de informes estadísticos y visuales que complementan perfectamente la analítica web tradicional. Es una solución online, de pago por subscripción que resulta muy económica y fácil de implementar.



10.     BIBLIOGRAFÍA.
1.     Aboutanalytics.com, “Web Analytics
2.     Agcommunicationsgroup.com, “What is Social Media?”
3.     Albarrán, J., “Avinash Kaushik: "La web será más inteligente y se anticipará:
nos envolverá" ”, lavanguardia.com, 14/01/2010.
4.     Alexserrano.es, “5 alternativas a Twitter Analytics
5.     Alexserrano.es, “Descubre todo lo que puedes medir con Twitter Analytics” 6. Arias Pérez, M. “KPI (Key Performance Indicators)”, analiticaweb.es, 11/06/2009.
7.     Cleary, I., “9 herramientas de analítica para Facebook”, socialancer.com, 22/01/2014.
8.     Clic to Clic: Consultores en marketing online, Definición de Analítica Web, emarketing.clictoclic.com/etiqueta/definicion-analitica-web/
9.     Cuesta, J., “Dashboards útiles para Google Analytics”, adrenalina.es, 15/01/2014.
10.  Gadea,            J.,        “Las    7          mejores           herramientas de analítica         web”, communitysroom.wordpress.com, 27/07/2012.
11.  Digital            Analytics        Association,    Definición      de        Analítica Web,
Digitalanalyticsassociation.org. 
12.  Dunatech.es, “¿Qué es la analítica web?”
13.  ElEconomista.es, “Las 20 redes sociales más utilizadas en el mundo”, 26/11/2012.
14.  Estrategiaweb360.com, “8 estrategias para mejorar la presencia en las redes sociales
15.  Factorde.com, “Los beneficios del Social Media para las empresas”, 31/05/2013.
16.  Fundación Banesto. Observatorio sobre el uso de las redes sociales en las Pymes españolas. Febrero. 2013.
17.  Gómez Plaza, I., “Estadísticas usuarios redes sociales en España”, concepto05.com, 10/07/2013.
18.  Gosende, J., “Estadísticas de mi página web: conociendo cómo se mide el tráfico”,          microsoft.com/business/es-es/Content/Paginas/article.aspx?cbcid=47, 19/05/2011. 

Semana 4:

Entregable 2:

Ubicado en “Entregables y test>Entregable 2” Después de haber revisado los materiales e investigado sobre el tema, El alumno ingresará a la Sesión de Blackboard Collaborate correspondiente a la semana 4 (Ver las actividades de enseñanza para validar fecha y hora):

1. Creará un informe acerca de la herramienta de IBM COGNOS que se mostrará en la sesión de Blackboard Collaborate 
2. Deberá incluir los siguientes elementos: 
➢ Caratula 
➢ Introducción 
➢ Desarrollo (Informe de la Herramienta vista en clase) 
➢ Conclusiones 
➢ Bibliografía consultada (Formato APA) 3. Es muy importante su asistencia a la sesión de Blackboard Collaborate para despejar las dudas. 

La fecha límite de envío es del 3 al 9 de agosto. (Revisar la rúbrica de la actividad) 
NOTA IMPORTANTE: • La redacción y ortografía será revisada por el profesor(a), así como la autenticidad de la información que se presenta.

Ver los siguientes contenidos:

Demo Cognos Analytics - Parte 1 Dashboard




Semana 5

Test automatizado:

Ubicado en “Entregables y test>Test automatizado”

El test comprenderá los temas revisados en las semanas 1, 2, 3, y 4

 

Las fechas de vigencia son del 13 al 18 de Agosto.

 

NOTA IMPORTANTE:

·  La redacción y ortografía será revisada por el profesor(a), así como la autenticidad de la información que se presenta.

 

 

 

Valor del test 25%


________________________________________________________________________________________