Docente: Mtro. Luis Roberto Pérez Macías
Periodo en el que se imparte: Del 13 de Julio al 18 de Agosto.
Objetivo general de la asignatura:
Al terminar
el curso el alumno será capaz de:
• Contrastar las técnicas
modernas de recopilación, interpretación y presentación de grandes bases de
datos que genera una empresa en los mercados físicos y virtuales para la definición
de mejores estrategias de negocio.
Foro 1:
Ubicado en Foros>Foro 1
Después de haber revisado los materiales
e investigado sobre el tema, participar en el foro contestando:
Ø ¿Cuáles son los conceptos fundamentales que
componen la analítica de datos y los modelos de ecuaciones estructurales?
Las fechas de participación son del 13 al 19 de julio.
(Revisar la rúbrica de la actividad)
Los temas que incluyen las actividades de la semana 1 son:
Semana 1:
El modelo de ecuaciones estructurales (Structura! Equation Modeling, SEM) permite examinar simultáneamente una serie de relaciones de dependencia, y es particularmente útil cuando una variable dependiente se convierte en variable independiente en ulteriores relaciones de dependencia. Además, muchas de las mismas variables afectan a cada una de las variables dependientes, pero con efectos distintos (Hair, et al, 2001). Se puede pensar que el modelo de ecuaciones estructurales es una extensión de varias técnicas multivariadas como la regresión múltiple y el análisis factorial (Kahn, 2006). Sin embargo, posee algunas características particulares que lo diferencian de las otras técnicas multivariadas. Una de las diferencias es la capacidad de estimar y evaluar la relación entre constructos no observables, denominados generalmente variables latentes. Una variable latente es un constructo supuesto (inteligencia, por ejemplo) que solo puede ser medido mediante variables observables (test de inteligencia, por ejemplo). En comparación con otras técnicas de análisis donde los constructos pueden ser representados con una única medición (puntajes brutos de un test, por ejemplo) y el error de medición no es modelado, el SEM permite empelar múltiples medidas que representan el constructo y controlar el error de medición específico de cada variable. Esta diferencia es importante ya que el investigador puede evaluar la validez de cada constructo medido. Otra característica particular es que para interpretar los resultados de SEM se deben evaluar cuidadosamente varias pruebas estadísticas y un conjunto de índices que determinan que la estructura teórica propuesta suministra un buen ajuste a los datos empíricos. Este ajuste se verifica si los valores de los parámetros estimados reproducen tan estrechamente como sea posible la matriz observada de covarianza (Kahn, 2006). Sin lugar a duda, el principal aporte que realiza el SEM es que permite a los investigadores evaluar o testear modelos teóricos, convirtiéndose en una de las herramientas más potentes para el estudio de relaciones causales sobre datos no experimentales cuando estas relaciones son de tipo lineal (Kerlinger, y Lee, 2002). No obstante, estos modelos nunca prueban la causalidad. En realidad, solo ayudan a seleccionar hipótesis causales relevantes, eliminando aquellas no sustentadas por la evidencia empírica. Así, los modelos causales son susceptibles de ser estadísticamente rechazados si se contradicen con los datos.
Semana 2
Semana 4:
Entregable 2:
Ubicado en “Entregables y test>Entregable 2” Después de haber revisado los materiales e investigado sobre el tema, El alumno ingresará a la Sesión de Blackboard Collaborate correspondiente a la semana 4 (Ver las actividades de enseñanza para validar fecha y hora):
1. Creará un informe acerca de la herramienta de IBM COGNOS que se mostrará en la sesión de Blackboard Collaborate
2. Deberá incluir los siguientes elementos:
➢ Caratula
➢ Introducción
➢ Desarrollo (Informe de la Herramienta vista en clase)
➢ Conclusiones
➢ Bibliografía consultada (Formato APA) 3. Es muy importante su asistencia a la sesión de Blackboard Collaborate para despejar las dudas.
La fecha límite de envío es del 3 al 9 de agosto. (Revisar la rúbrica de la actividad)
NOTA IMPORTANTE: • La redacción y ortografía será revisada por el profesor(a), así como la autenticidad de la información que se presenta.
Ver los siguientes contenidos:
Demo Cognos Analytics - Parte 1 Dashboard
Semana 5
Valor del test 25%
________________________________________________________________________________________
1.- Metodología de
analítica de datos
1.1 Conceptos
fundamentales
1.2 Conceptos
principales
1.3 Análisis Factorial
1.3.1 Exploratorio
1.3.2 Confirmatorio
2.- Modelos de
ecuaciones estructurales
2.1 Conceptos
fundamentales
2.3 Modelo de ventaja
competitiva
2.4 Diagnostico de
modeloSemana 1:
El modelo de ecuaciones estructurales (Structura! Equation Modeling, SEM) permite examinar simultáneamente una serie de relaciones de dependencia, y es particularmente útil cuando una variable dependiente se convierte en variable independiente en ulteriores relaciones de dependencia. Además, muchas de las mismas variables afectan a cada una de las variables dependientes, pero con efectos distintos (Hair, et al, 2001). Se puede pensar que el modelo de ecuaciones estructurales es una extensión de varias técnicas multivariadas como la regresión múltiple y el análisis factorial (Kahn, 2006). Sin embargo, posee algunas características particulares que lo diferencian de las otras técnicas multivariadas. Una de las diferencias es la capacidad de estimar y evaluar la relación entre constructos no observables, denominados generalmente variables latentes. Una variable latente es un constructo supuesto (inteligencia, por ejemplo) que solo puede ser medido mediante variables observables (test de inteligencia, por ejemplo). En comparación con otras técnicas de análisis donde los constructos pueden ser representados con una única medición (puntajes brutos de un test, por ejemplo) y el error de medición no es modelado, el SEM permite empelar múltiples medidas que representan el constructo y controlar el error de medición específico de cada variable. Esta diferencia es importante ya que el investigador puede evaluar la validez de cada constructo medido. Otra característica particular es que para interpretar los resultados de SEM se deben evaluar cuidadosamente varias pruebas estadísticas y un conjunto de índices que determinan que la estructura teórica propuesta suministra un buen ajuste a los datos empíricos. Este ajuste se verifica si los valores de los parámetros estimados reproducen tan estrechamente como sea posible la matriz observada de covarianza (Kahn, 2006). Sin lugar a duda, el principal aporte que realiza el SEM es que permite a los investigadores evaluar o testear modelos teóricos, convirtiéndose en una de las herramientas más potentes para el estudio de relaciones causales sobre datos no experimentales cuando estas relaciones son de tipo lineal (Kerlinger, y Lee, 2002). No obstante, estos modelos nunca prueban la causalidad. En realidad, solo ayudan a seleccionar hipótesis causales relevantes, eliminando aquellas no sustentadas por la evidencia empírica. Así, los modelos causales son susceptibles de ser estadísticamente rechazados si se contradicen con los datos.
El
principal impulso en la utilización de estos métodos y técnicas multivariadas
ha sido el desarrollo de las computadoras. En la actualidad, se dispone de una
variedad de programas computarizados que simplifican enormemente estas tareas y
permiten la realización de análisis cada vez más poderosos y sofisticados.
Existen al menos tres softwares altamente reconocidos y que actualmente están
en uso. El primero de ellos es el LISREL (Linear Estructural Relations) que fue
creado por Joreskog y sus colaboradores (Joreskog y Sorbom, 1996) para
establecer y analizar estructuras de covarianza. Las primeras versiones de este
programa requerían del establecimiento de planteamientos muy difíciles para el
usuario que no tenía conocimiento matemático profundo. Luego, el programa
llamado EQS (Structural Equation Modeling Software) que fue desarrollado por
Bentler (1995) presenta planteamientos y símbolos del modelo más fáciles de
comprender. Finalmente, el programa Análisis de Estructuras Momentáneas
(Analysis of Moment Structures, AMOS) que fue creado por Arbuckle (2003),
permite al usurario que especifique, vea y modifique el modelo de estructura
gráficamente por medio del uso de herramientas gráficas sencillas. Cada uno de
estos programas ha logrado que los investigadores usen con mayor facilidad el
modelo de ecuaciones estructurales. Debido al crecimiento y la utilidad de esta
técnica en la actualidad, se propone a continuación una introducción de los
principales conceptos del SEM. Para poder exponer con mayor claridad la
utilidad del SEM, se utilizará un simple ejemplo que ayudará al lector a
comprender esta técnica.
A lo
largo de la exposición del SEM, nos referiremos a la necesidad de una
justificación teórica para la especificación de las relaciones de dependencia,
modificaciones de las relaciones propuestas y muchos otros aspectos de la
estimación de un modelo. Una teoría puede definirse como un conjunto
sistemático de relaciones que ofrecen una explicación exhaustiva y consistente
de un fenómeno (Hair, et al 2001). La necesidad de un modelo teórico para guiar
el proceso de estimación se hace especialmente crítica cuando se hacen
modificaciones del modelo.
Existen
tres estrategias que un investigador puede adoptar en la utilización de
sistemas de ecuaciones estructurales:
(1) la estrategia de modelización confirmatoria,
(2) la estrategia de modelos rivales,
(3) la estrategia de desarrollo del modelo.
La aplicación más directa de los modelos de ecuaciones estructurales es una estrategia de modelización confirmatoria, donde el investigador especifica un modelo aislado y el modelo de ecuaciones estructurales se utiliza para evaluar su significación estadística. La investigación ha demostrado que las técnicas desarrolladas para evaluar los modelos de ecuaciones estructurales tienen un sesgo confirmatorio. Por lo tanto, aunque el modelo propuesto presente un ajuste aceptable, el investigador no ha probado el modelo propuesto, sino que solo ha confirmado que es uno de los varios modelos posibles. La estrategia de modelos rivales permite evaluar el modelo estimado con modelos alternativos. En muchas ocasiones el investigador se encuentra con modelos alternativos para representar una misma situación sin conocer cuál proporciona un nivel de ajuste mejor. Esta estrategia proporciona las líneas básicas para realizar esta comparación y seleccionar el más idóneo. Un ejemplo habitual de modelos rivales es el proceso de evaluación factorial de invarianza, la igualdad de modelos de factor entre grupos. Otro ejemplo refiere a los modelos anidados, en el que el número de constructos e indicadores permanecen constantes, pero el número de relaciones estimadas cambian. Finalmente, la estrategia de desarrollo del modelo difiere de las dos anteriores estrategias en que aunque se propone un modelo, el propósito del esfuerzo de modelización es mejorarlo a través de modificaciones de los modelos de medida y/o estructurales. El investigador que sigue esta estrategia intenta Re especificar un modelo básico para encontrar uno nuevo. (Cupani Marcos, 2012)
(1) la estrategia de modelización confirmatoria,
(2) la estrategia de modelos rivales,
(3) la estrategia de desarrollo del modelo.
La aplicación más directa de los modelos de ecuaciones estructurales es una estrategia de modelización confirmatoria, donde el investigador especifica un modelo aislado y el modelo de ecuaciones estructurales se utiliza para evaluar su significación estadística. La investigación ha demostrado que las técnicas desarrolladas para evaluar los modelos de ecuaciones estructurales tienen un sesgo confirmatorio. Por lo tanto, aunque el modelo propuesto presente un ajuste aceptable, el investigador no ha probado el modelo propuesto, sino que solo ha confirmado que es uno de los varios modelos posibles. La estrategia de modelos rivales permite evaluar el modelo estimado con modelos alternativos. En muchas ocasiones el investigador se encuentra con modelos alternativos para representar una misma situación sin conocer cuál proporciona un nivel de ajuste mejor. Esta estrategia proporciona las líneas básicas para realizar esta comparación y seleccionar el más idóneo. Un ejemplo habitual de modelos rivales es el proceso de evaluación factorial de invarianza, la igualdad de modelos de factor entre grupos. Otro ejemplo refiere a los modelos anidados, en el que el número de constructos e indicadores permanecen constantes, pero el número de relaciones estimadas cambian. Finalmente, la estrategia de desarrollo del modelo difiere de las dos anteriores estrategias en que aunque se propone un modelo, el propósito del esfuerzo de modelización es mejorarlo a través de modificaciones de los modelos de medida y/o estructurales. El investigador que sigue esta estrategia intenta Re especificar un modelo básico para encontrar uno nuevo. (Cupani Marcos, 2012)
Semana 2
Entregable 1:
Ubicado en “Entregables y test>Entregable 1”
Después de haber revisado los materiales e investigado
sobre el tema, El alumno crea una infografía que muestre los contenidos de los
documentos compartidos por el docente
La infografía se puede crear en uno de los sitios que el
docente sugiere o uno elegido por el alumno siempre y cuando sea una
herramienta en línea.
La fecha límite de envío es del 20 al 26
de julio.
(Revisar la rúbrica de la actividad)
NOTAS IMPORTANTES:
La redacción y ortografía será revisada por el
profesor(a), así como la autenticidad de la información que se presenta.
Las instituciones y empresas privadas coleccionan bastante información
(ventas, clientes, cobros, pacientes, tratamientos, estudiantes, calificaciones, fenómenos meteorológicos, etcétera, según su giro), aprovechando
que las computadoras y los discos de almacenamiento se han abaratado, y
las comunicaciones son también baratas y confiables. Esta información reside en
bases de datos operacionales, llamadas así porque con ellas se lleva a cabo la labor
sustantiva de la empresa: envío de mercancía a clientes, registro de estudiantes, tratamiento a pacientes, cobranza, entre otros.
Posteriormente la información se depura y sumariza (resume) para transferirla
a bases de datos conocidas como bodegas de datos. Son “fotografías” periódicas (trimestrales, digamos) del estado de la empresa. Aquí se lleva a cabo la labor estratégica de la misma: averiguar qué pasa en ella. ¿Qué productos se venden significativamente menos? ¿Ha habido un auge inesperado de deserciones de las carreras
en las ciencias sociales? ¿El aumento de la inversión en perforación de nuevos
pozos no guarda proporción con la disminución de las reservas probables y probadas de hidrocarburos? Ésta es la zona de las decisiones estratégicas, y los sistemas
usados para ellas se conocen como Sistemas de Apoyo a la Toma de Decisiones.
Estos sistemas muestran al funcionario los indicadores principales del estado de la
empresa (en el último bimestre, digamos). El funcionario indaga o averigua situaciones que él cree son de interés o preocupación. El sistema contesta con datos y gráficas para que aquél pueda tomar decisiones. Aunque el directivo o gerente tiene la experiencia necesaria, a menudo (por falta de tiempo, o porque no se le
ocurrió) no mira situaciones que están tomando rumbos interesantes, peligrosos quizá. Así, ciertas decisiones importantes pueden ser soslayadas, ignoradas, o
tomarse ya muy tarde. Se pueden así desperdiciar oportunidades o admitirse riesgos indeseables.
Recientemente, la computación ha inventado la
minería de datos, en auxilio del directivo que toma decisiones. En las bodegas de datos se colocan “mineros”,
algoritmos que buscan tendencias, anomalías, desviaciones o situaciones interesantes pero desconocidas, y
otros eventos importantes. Estos mineros auxilian al
directivo al mando del timón de la institución a mantener el mejor rumbo posible. Utilizan, además de las
bases de datos, la inteligencia artificial (procedimientos
para hallar grupos en situaciones similares, clasificar
eventos nuevos en categorías conocidas, etcétera) y la
estadística. Pero a diferencia de esta última, que toma
una muestra de los datos y la estudia, la minería de
datos estudia todos los datos. Mientras más datos se
analicen, más precisa es, y su poder de detección y predicción aumenta.
¿De dónde proviene el mar de datos?
Todas las organizaciones y empresas coleccionan y
administran datos de su interés relacionados con
personas, procesos u otro tipo de actividades para
las cuales fueron creadas. Los más comunes son los
relacionados con ventas de productos o servicios, empleados, pacientes o con clientes, o tan sofisticados
como los que usa una organización dedicada a pronosticar el clima, o en actividades muy especializadas,
como la detección de fraudes en el consumo de energía eléctrica.
Con el paso del tiempo Internet se ha introducido en la sociedad convirtiéndose en un elemento fundamental para estar actualizados en cualquier ámbito y, como no podía ser menos en el sector empresarial, ha entrado con gran fuerza. Las empresas han dado el
salto al mundo online creando sitios webs en los que vender sus productos u ofrecer sus
servicios e incluso llegando a aparecer negocios con carácter puramente online.
¿QUÉ ES LA ANALÍTICA WEB?
Para definir la Analítica Web, en primer lugar encontramos una especificación de
Digital Analytical Association que la clasifica como “la ciencia del análisis usando
datos para comprender los patrones históricos con miras a mejorar el rendimiento y la
predicción del futuro. El análisis de datos digitales se refiere a la información recogida
en los canales interactivos.
Como principales estadísticas de tráfico se deben mencionar:
- Páginas vistas: es el número de páginas por las que navega un usuario cuando visita un sitio web.
- Sesión: secuencia de páginas que un usuario visita en un sitio web.
- Visitas: representan las sesiones que se abren en un sitio web en un periodo específico de tiempo.
- Visitante único: mide el número de usuarios que entran a un sitio web, en concreto, mide los dispositivos que entran. Por tanto, si dos usuarios acceden a la misma página desde el mismo dispositivo en tiempos diferentes sólo se contabilizará como un visitante único.
- Visitantes nuevos: son aquellos que no habían visitado previamente el sitio web.
- Visitantes recurrentes: aquellos que han visitado el sitio web en más de una ocasión en un periodo de tiempo.
- Visitas directas: se produce cuando un usuario escribe la dirección web del sitio que desea visitar directamente en el navegador.
- Visitas de otras fuentes: cuando provienen de los motores de búsqueda o cuando se producen a través de enlaces externos de otros sitios web.
Biografía consultada:
ANALÍTICA WEB Y EN REDES
SOCIALES. HERRAMIENTAS
DE ANÁLISIS” extraído de: https://repositorio.upct.es/bitstream/handle/10317/4036/tfg245.pdf;jsessionid=ED0673C69F0BF11352DDBD37E4429F0C?sequence=1
Introducción a Minería de Datos,
Metodologías y
Técnicas de Minería de datos, extraido de: http://www.ing.ula.ve/~aguilar/actividad-docente/IN/transparencias/clase40.pdf
Semana 3:
Foro 2:
Ubicado en Foros>Foro 2
Después de haber revisado los materiales e
investigado sobre el tema, participar en el foro
contestando:
¿Qué características deben tener los proveedores y
consultores para ser contratados y formen parte de
la estructura interna en el control de la analítica de
datos?
Las fechas de participación son del 27 de Julio al 2
de Agosto.
(Revisar la rúbrica de la actividad)
NOTA IMPORTANTE:
La redacción y ortografía será revisada por el
profesor(a), así como la autenticidad de la
información que se presenta.
Para definir la Analítica Web, en primer lugar
encontramos una especificación de Digital Analytical Association que la
clasifica como “la ciencia del análisis usando datos para comprender los
patrones históricos con miras a mejorar el rendimiento y la predicción del
futuro. El análisis de datos digitales se refiere a la información recogida en
los canales interactivos (online, móvil, social, etc.)”
Según la define Sergio Maldonado, “la analítica
web es el análisis y presentación de datos recabados en internet con el
propósito de ayudar a la empresa en la gestión y optimización de su estrategia
digital”
También se define como “la recopilación,
medición, evaluación y explicación racional de los datos obtenidos de internet,
con el propósito de entender y optimizar el uso de un sitio web”
La evolución y la gran presencia de
la Web en el mundo social y empresarial han transformado el modo en el que se
realizan muchas actividades y negocios. Bajo esta situación la Analítica Web ha
alcanzado un gran protagonismo y creemos que resulta indispensable para medir
los resultados que se pueden obtener a través de la publicidad online. Las
características de la Analítica Web han ido evolucionando, adaptándose de una
forma muy similar a la propia evolución de la red ya que ambas se encuentran
conectadas.
La Web en general ha pasado por
varias etapas desde su comienzo; la Web 1.0, siendo su principal característica
un mayor carácter informativo pasando por la Web 2.0 también denominada
colaborativa, y llegando a la Web 3.0 o semántica. Estas últimas fases han
conseguido que los usuarios participen activamente en la Web y no sólo sea
utilizada como un mero sitio de obtención de información.
Las herramientas de analítica web
empezaron a aparecer en los años 90 y también son denominadas Analítica de Web
1.0. La finalidad de éstas era conocer la carga de trabajo de los servidores y
calcular así su efectividad y eficiencia. Éstas presentaban problemas en la
identificación de los usuarios y además tenían poca flexibilidad para segmentar
la información.
Los Indicadores Clave de Rendimiento (Keys
Performance Indicators) son métricas para ayudar a definir el progreso de una
web según los objetivos fijados
Son números diseñados para transmitir la
información de manera sucinta sobre el progreso de la web. Los KPI deben estar
bien definidos, bien presentados y crear expectativas, es decir, generar nuevos
KPI o cuestiones sobre cómo mejorarlos. Consisten casi siempre en tasas,
ratios, promedios o porcentajes, nunca números aislados simplemente. Los
indicadores clave de rendimiento ofrecen un contexto para la información
obtenida y ayudan a comprenderla, y están diseñados para resumir de manera
significativa todos los datos obtenidos y para darles un significado lógico a
estos datos1
Es el proveedor mundial en “Customer Experience
Analytics”, es decir, una forma de analizar el comportamiento online de los
usuarios en las páginas web de los clientes y mejorar su experiencia.
ClickTale “sigue” y graba cada movimiento del ratón, clic y desplazamiento, creando
vídeos que pueden verse en cualquier momento de las sesiones de navegación de
las visitas. Además agrega miles de datos para crear mapas de calor57
y todo tipo de informes estadísticos y visuales que complementan perfectamente
la analítica web tradicional. Es una solución online, de pago por subscripción
que resulta muy económica y fácil de implementar.
10. BIBLIOGRAFÍA.
1. Aboutanalytics.com,
“Web Analytics”
2. Agcommunicationsgroup.com,
“What is Social Media?”
3. Albarrán,
J., “Avinash Kaushik: "La web será
más inteligente y se anticipará:
nos
envolverá" ”, lavanguardia.com, 14/01/2010.
4. Alexserrano.es,
“5 alternativas a Twitter Analytics”
5. Alexserrano.es,
“Descubre todo lo que puedes medir con
Twitter Analytics” 6. Arias Pérez, M. “KPI (Key Performance Indicators)”, analiticaweb.es, 11/06/2009.
7. Cleary,
I., “9 herramientas de analítica para
Facebook”, socialancer.com, 22/01/2014.
8. Clic
to Clic: Consultores en marketing online, Definición de Analítica Web,
emarketing.clictoclic.com/etiqueta/definicion-analitica-web/
9. Cuesta,
J., “Dashboards útiles para Google
Analytics”, adrenalina.es, 15/01/2014.
10. Gadea,
J., “Las 7 mejores
herramientas de analítica
web”,
communitysroom.wordpress.com, 27/07/2012.
11. Digital
Analytics Association, Definición de Analítica Web,
Digitalanalyticsassociation.org.
12. Dunatech.es,
“¿Qué es la analítica web?”
13. ElEconomista.es,
“Las 20 redes sociales más utilizadas en
el mundo”, 26/11/2012.
14. Estrategiaweb360.com,
“8 estrategias para mejorar la presencia
en las redes sociales”
15. Factorde.com,
“Los beneficios del Social Media para las
empresas”, 31/05/2013.
16. Fundación
Banesto. Observatorio sobre el uso de las
redes sociales en las Pymes españolas. Febrero. 2013.
17. Gómez
Plaza, I., “Estadísticas usuarios redes
sociales en España”, concepto05.com, 10/07/2013.
18. Gosende,
J., “Estadísticas de mi página web:
conociendo cómo se mide el tráfico”, microsoft.com/business/es-es/Content/Paginas/article.aspx?cbcid=47,
19/05/2011.
Semana 4:
Entregable 2:
Ubicado en “Entregables y test>Entregable 2” Después de haber revisado los materiales e investigado sobre el tema, El alumno ingresará a la Sesión de Blackboard Collaborate correspondiente a la semana 4 (Ver las actividades de enseñanza para validar fecha y hora):
1. Creará un informe acerca de la herramienta de IBM COGNOS que se mostrará en la sesión de Blackboard Collaborate
2. Deberá incluir los siguientes elementos:
➢ Caratula
➢ Introducción
➢ Desarrollo (Informe de la Herramienta vista en clase)
➢ Conclusiones
➢ Bibliografía consultada (Formato APA) 3. Es muy importante su asistencia a la sesión de Blackboard Collaborate para despejar las dudas.
La fecha límite de envío es del 3 al 9 de agosto. (Revisar la rúbrica de la actividad)
NOTA IMPORTANTE: • La redacción y ortografía será revisada por el profesor(a), así como la autenticidad de la información que se presenta.
Ver los siguientes contenidos:
Demo Cognos Analytics - Parte 1 Dashboard
Test automatizado: Ubicado en “Entregables y test>Test automatizado” El
test comprenderá los temas revisados en las semanas 1,
2, 3, y 4
Las fechas de
vigencia son del 13 al 18 de Agosto.
NOTA IMPORTANTE: · La
redacción y ortografía será revisada por el profesor(a), así como la
autenticidad de la información que se presenta.
|
No hay comentarios.:
Publicar un comentario