rubrica investigacion

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 3

Investigación

Sensor IoT: Los sensores IoT (Internet de las Cosas) recopilan datos y los envían a internet para
monitoreo remoto y toma de decisiones. Son fundamentales para aplicaciones en casas
inteligentes, monitoreo industrial, y ciudades inteligentes.

Sensor Ultrasónico: Este sensor mide distancias mediante ondas sonoras. Emite una onda que
rebota en un objeto y vuelve al sensor, calculando la distancia en función del tiempo que tarda en
regresar la onda.

Sensor de Humedad: Mide la cantidad de vapor de agua en el ambiente, útil en aplicaciones como
monitoreo ambiental, sistemas de riego y dispositivos de control de clima.

Sensor de Luz: Detecta la cantidad de luz presente. Este sensor es usado para ajustar
automáticamente la iluminación en función de la luminosidad ambiente.

Sensor de Proximidad: Detecta objetos cercanos sin contacto físico, utilizando infrarrojos o
ultrasonidos. Común en sistemas de seguridad o activación automática.

Sensor de Escala de Grises: Este sensor detecta variaciones en tonos de gris, lo que es útil en
aplicaciones que requieren distinción entre diferentes superficies o colores.

Placa de Programación Arduino: La placa Arduino es una plataforma de código abierto usada para
desarrollar proyectos electrónicos. Es ideal para el manejo y programación de sensores,
permitiendo a los usuarios crear sistemas personalizados de recopilación de datos y control de
dispositivos.

Reflexión sobre Fuentes de Información Masiva: La información masiva recopilada por estos
sensores es clave para proyectos de IoT. Tener acceso a gran cantidad de datos de diversas fuentes
permite mejorar la precisión, facilita el análisis y ayuda en la creación de patrones de
comportamiento útiles en aplicaciones de automatización y predicción.

Recepción de Información en Redes Sociales

Las redes sociales, como Twitter, Facebook e Instagram, son plataformas donde se genera y
comparte información masiva constantemente. Estos sitios permiten la recopilación de datos en
tiempo real, provenientes de millones de usuarios alrededor del mundo.

Características:
Volumen: Gran cantidad de datos se generan en forma de publicaciones, comentarios y mensajes.
Inmediatez: La información se actualiza continuamente, lo que permite una respuesta rápida ante
eventos.
Variedad: Los datos pueden incluir texto, imágenes, videos y enlaces, dando una visión completa de
los eventos y opiniones públicas.
Las redes sociales más influyentes en la recepción de información masiva incluyen Twitter y
Facebook, debido a su alcance global y a la rapidez con la que se comparten noticias y opiniones.
Información Gubernamental

Instituciones como el Instituto Nacional de Estadística y Geografía (INEGI), la Secretaría de Hacienda


y Crédito Público (SHCP) y el Banco de México recopilan, analizan y publican datos relevantes para
la economía, la demografía, y las finanzas del país.
Tipo de Información:
INEGI: Estadísticas demográficas, sociales y económicas.
SHCP: Información fiscal, presupuestaria y financiera.
Banco de México: Datos sobre la política monetaria, inflación, tasas de interés, entre otros.
Distribución de Información: Estas instituciones publican sus datos en sus sitios web oficiales y
plataformas digitales, facilitando el acceso del público a información verificada y actualizada.

Distribución de Datos en Apache Kafka

Apache Kafka es una plataforma de transmisión de datos en tiempo real diseñada para manejar
grandes cantidades de información. Kafka permite que los datos se publiquen en "topics" (temas) y
se suscriban consumidores que los procesarán.
Componentes Clave:
Flujo de registros: Almacena datos como registros (eventos) en secuencia.
Almacenamiento: Kafka guarda estos datos temporalmente para ser procesados.
Publicación y Suscripción: Facilita la publicación de datos en topics y la suscripción para recibir estos
datos.
Ventajas de Uso: Kafka es ideal para arquitecturas de datos de alto rendimiento debido a su
capacidad de procesar millones de eventos por segundo, su escalabilidad y su robustez en el
manejo de datos en tiempo real.

Características de Apache Storm


Apache Storm es una plataforma de procesamiento en tiempo real, que permite manejar flujos de
datos de manera masiva y rápida. Es ampliamente usado en aplicaciones donde se requiere analizar
datos en el momento que se generan.
Ventajas Competitivas:
Tiempo de respuesta bajo: Storm procesa datos en milisegundos, ideal para aplicaciones en tiempo
real.
Escalabilidad: Se adapta a grandes volúmenes de datos mediante procesamiento en paralelo.
Procesamiento en Paralelo: Distribuye las tareas entre varios nodos, optimizando el rendimiento.
Usos Comunes: Se utiliza en detección de fraudes, monitoreo de redes sociales y procesamiento de
datos de sensores.

También podría gustarte