Dados

Fazer download em doc, pdf ou txt
Fazer download em doc, pdf ou txt
Você está na página 1de 41

1

Dados: elementos / fatos brutos, sem significado

Informação: dados organizados, com significado

Conhecimento: interpretação e internalização das informações recebidas

Inteligência: o conhecimento obtido é aplicado em ações e para tomar


decisões

Dados -> Informação -> Conhecimento -> Inteligência

____________

(CESPE) Dados são fatos que descrevem os objetos de informação, por


exemplo, eventos e entidades. (CERTO)

_____

(CESPE) Um dado que está inserido em um contexto pode ser


denominado de informação. (CERTO)

_____

(CESPE) Informação é constituída por um conjunto de dados com


características específicas. O ponto de análise é que os dados devem ser
relevantes para o sistema a que se destinam. (ERRADO)

· Informação: conjunto de dados organizados (significativos e relevantes)

______

(CESPE) A informação é a ordenação e organização dos dados de forma a


transmitir significado e compreensão dentro de um determinado
contexto. Seria o conjunto ou consolidação dos dados de forma a fundamentar
o conhecimento. (CERTO)

______

(CESPE) O conceito de conhecimento é mais complexo que o de


informação, pois conhecimento pressupõe um processo de compreensão
e internalização das informações recebidas, possivelmente combinando-
as. (CERTO)

______

(CESPE) O conhecimento é embasado na inteligência das informações que


são coletadas e analisadas para uma organização. (ERRADO)

· Conhecimento: embasado na interpretação e internalização das


informações recebidas
2

______

(CESPE) O conceito de inteligência está relacionado à capacidade de


julgamento, ou seja, o ser humano usa o seu conhecimento para tomar a
melhor decisão em uma situação real. (CERTO)

Inteligência

 Sabedoria

 Envolve a capacidade de julgamento e elementos


como intuição, ética, experiência
 É uma habilidade ESSENCIALMENTE HUMANA, é usar o
conhecimento obtido para tomar a melhor decisão.

Com relação aos conceitos de análise de dados e informações: o conceito de


inteligência está relacionado à capacidade de julgamento, ou seja, o ser
humano usa o seu conhecimento para tomar a melhor decisão em uma
situação real.

Conhecimento: capital intelectual. É uma informação valiosa da mente, inclui


reflexão, síntese e contexto.

Inteligência: um conhecimento aplicado em situações reais. Há uma


oportunidade e o conhecimento adquirido é usado.

DADOS, INFORMAÇÃO E CONHECIMENTO

DADOS

O dado pode ser facilmente obtido por meio de máquinas, além de ser
transferível e frequentemente quantificável. Certa

Dados se referem a uma descrição elementar de coisas, eventos, atividades e


transações que são registrados, classificados e armazenados, mas não são
organizados para transmitir significados específicos. Certa

Dados são fatos que descrevem os objetos de informação, por exemplo,


eventos e entidades. Certa
3

O dado não possui significado relevante e não conduz a nenhuma


compreensão. Representa algo que não tem sentido a princípio. Portanto, não
tem valor algum para embasar conclusões, muito menos respaldar
decisões. Certa

INFORMAÇÃO

Informação se refere a dados que foram organizados para terem significado e


valor para o receptor, que interpreta o significado e elabora conclusões sobre a
informação. Certa

Informação é constituída por um conjunto de dados com características


específicas. O ponto de análise é que os dados devem ser relevantes para o
sistema a que se destinam. Certa

A informação é a ordenação e organização dos dados de forma a


transmitir significado e compreensão dentro de um determinado contexto. Seria
o conjunto ou consolidação dos dados de forma a fundamentar o
conhecimento. Certa

O diretor de uma montadora de veículos necessita tomar uma decisão acerca


da continuidade ou não de um dos produtos vendidos no Brasil. Para tanto,
solicitou um relatório sobre as vendas de carros da marca do último trimestre
de 2018, por faixa de preço, região, modelo e cor. Nessa situação, no contexto
de análise da informação, o relatório representa uma informação. Certa

CONHECIMENTO:

Conhecimento consiste em informações organizadas para transmitir


experiência, aprendizagem e prática aplicadas a um problema ou atividade
empresarial. Certa

Conhecimento demanda análise e avaliação sobre a confiabilidade, relevância


e importância de dados e informações para a construção de um quadro de
situação. Certa

O conhecimento explícito é objetivo e de fácil codificação, podendo ser


armazenado de diversas formas e compartilhado mais facilmente. Certa

O conhecimento tácito é subjetivo e está presente apenas na mente de cada


indivíduo. Certa

A partir do conhecimento não formalmente expresso, também conhecido como


tácito, é necessária uma reflexão humana com o objetivo de disseminá-lo e
torná-lo explícito. Certa
4

O conceito de conhecimento é mais complexo que o de informação, pois


conhecimento pressupõe um processo de compreensão e internalização das
informações recebidas, possivelmente combinando-as. Certa

Gostei(28)Respostas(1)
Reportar abuso
Carregar mais

Outras questões CESPE sobre DADO/ CONHECIMENTO / INTELIGÊNCIA

O conhecimento tácito é subjetivo e está presente apenas na mente de cada


indivíduo.(C)

O conhecimento explícito é objetivo e de fácil codificação, podendo ser


armazenado de diversas formas e compartilhado mais facilmente. (C)

A partir do conhecimento não formalmente expresso, também conhecido como


tácito, é necessária uma reflexão humana com o objetivo de disseminá-lo e
torná-lo explícito. (C)

-PF18 O conceito de conhecimento é mais complexo que o de informação, pois


conhecimento pressupõe um processo de compreensão e internalização das
informações recebidas, possivelmente combinando-as.(C)

-PF18 Informação é constituída por um conjunto de dados com características


específicas. O ponto de análise é que os dados devem ser relevantes para o
sistema a que se destinam.(C)

-PF18 Dados são fatos que descrevem os objetos de informação, por exemplo,
eventos e entidades.(C)

O dado não possui significado relevante e não conduz a nenhuma


compreensão. Representa algo que não tem sentido a princípio. Portanto, não
tem valor algum para embasar conclusões, muito menos respaldar decisões.
(C)

A informação é a ordenação e organização dos dados de forma a


transmitir significado e compreensão dentro de um determinado contexto. Seria
o conjunto ou consolidação dos dados de forma a fundamentar o
conhecimento.(C)
5

O diretor de uma montadora de veículos necessita tomar uma decisão acerca


da continuidade ou não de um dos produtos vendidos no Brasil. Para tanto,
solicitou um relatório sobre as vendas de carros da marca do último trimestre
de 2018, por faixa de preço, região, modelo e cor. Nessa situação, no contexto
de análise da informação, o relatório representa uma informação.(C)

-PF-12 Os processos de informação fundamentam-se em dado, informação e


conhecimento, sendo este último o mais valorado dos três, por ser composto
por experiências tácitas, ideias e valores, além de ser dinâmico e acessível por
meio da colaboração direta e comunicação entre as pessoas detentoras de
conhecimento.(C)

--- > MODELO: conceitual.

--- > GRAU DE ABSTRAÇÃO: alto.

--- > DEPENDÊNCIA: nenhum.

--- > Compreensão pelo usuário final: fácil.

--- > Exemplo: Modelo entidade-relacionamento.

----------------------------------------

--- > MODELO: lógico.

--- > GRAU DE ABSTRAÇÃO: médio.

--- > DEPENDÊNCIA: somente software (sgbd). CASO DA QUESTÃO.

--- > Compreensão pelo usuário final: médio.

--- > Exemplo: modelo relacional.

----------------------------------------

--- > MODELO: físico.

--- > GRAU DE ABSTRAÇÃO: baixo.

--- > DEPENDÊNCIA: software e hardware.

--- > Compreensão pelo usuário final: difícil.

--- > Exemplo: depende do SGBD.


6

A independência de dados permite o gerenciamento sem alterar o esquema


de nível superior. Ela permite que as organizações realizem alterações no
banco de dados para atender a novas necessidades ou melhorar o
desempenho sem ter que reescrever ou ajustar todas as aplicações que
dependem desses dados.

Independência lógica = capacidade de modificar o esquema lógico do banco


de dados sem que isso afete as aplicações que o utilizam. Essas alterações
podem envolver a adição ou remoção de tabelas, colunas ou restrições, sem
que os programas que acessam os dados precisem ser modificados. A ideia é
que as aplicações continuem a funcionar corretamente, independentemente de
mudanças na estrutura lógica do banco de dados.

Independência física = capacidade de alterar a estrutura de armazenamento


físico do banco de dados sem que isso afete o esquema lógico ou as
aplicações que acessam os dados. Por exemplo, é possível alterar o sistema
de gerenciamento de armazenamento, a localização dos arquivos ou até
mesmo a tecnologia de armazenamento subjacente sem afetar a forma como
os dados são vistos e manipulados pelos programas.

Metadados, dados sobre dados, são as informações sobre um arquivo digital


que nos permite entendê-lo, usá-lo, gerenciá-lo e preservá-lo. Sem ele, não
saberíamos sobre o arquivo (por exemplo, o título, quem o criou e em que
data), o que é o arquivo (por exemplo, as dimensões de pixels, o codec em
uso, duração do vídeo etc. ), como ele se relaciona com outros arquivos (por
exemplo, parte um de três arquivos) e como foi monitorado ao longo de sua
vida (por exemplo, verificações de qualidade).

Os Metadados têm um papel importante na gestão de dados, pois a partir


deles as informações são processadas, atualizadas e consultadas. As
informações de como os dados foram criados/derivados, ambiente em que
reside e/ou residiu, alterações feitas, entre outras são obtidas de metadados.
Os metadados fornecem os recursos necessários para entender os dados
através do tempo. Metadados são dados dos dados.

Outras questões:

1. A gestão de metadados permite o armazenamento detalhado das


informações de tabelas existentes em um sistema de gerenciamento de
banco de dados, além dos processos de extração, transformação e
carga associados a essas tabelas. (C)
2. Os metadados, definidos como dados dos dados, são abstrações dos
dados de mais alto nível que descrevem dados de um nível inferior. (C)
7

3. Os metadados têm um papel importante na gestão de dados, pois a


partir deles as informações são processadas, atualizadas e consultadas.
As informações de como os dados foram criados/derivados, ambiente
em que reside e/ou residiu, alterações feitas, entre outras são obtidas de
metadados. (C)

Metadados, ou Metainformação, são dados sobre outros dados. Um item de


um metadado pode dizer do que se trata aquele dado, geralmente uma
informação inteligível por um computador. Os metadados facilitam o
entendimento dos relacionamentos e a utilidade das informações dos dados.

Quanto maior o crescimento da internet das coisas (IOT),


necessariamente, os dados/informações irão aumentar, logo, é necessário
uma forma de armazenamento grande para suportar essas informações, ou
seja, BIGDATA, que se caracteriza pelo volume, veracidade, variedade,
velocidade e valor.

A Internet das Coisas (IoT - Internet of Things) é uma forma de operação de


dispositivos autônomos que se comunicam entre si para a produção de dados,
tomada de decisões e fornecimento de serviços para os usuários.

Com o advento do IPv6, a quantidade de endereços saltou exponencialmente


em relação ao IPv4, permitindo a conexão de bilhões de novos dispositivos à
rede mundial de computadores.

Internet das coisas (IoT)

Trata-se do conceito que se refere à interconexão digital de objetos físicos


cotidianos entre si e com usuários por meio de sensores ou softwares capazes
de transmitir dados pela internet. Hoje até geladeira tá sendo conectada à
internet.

A IoT (Internet of Things) ou Internet das Coisas não pode ser vista e
estudada singularmente, deve ser estudada em conjunto com o Big Data,
a Mineração de Dados, o Aprendizado de Máquinas e até mesmo Banco
de Dados.

Vejamos: A ideia de IoT é tornar as coisas mais inteligentes e


conectadas. Especialistas dizem que se é possível ligar e desligar algo,
então, ele pode ser conectado e fazer parte do universo IoT.
8

Internet of Things (IoT)

↳ Do português - Internet das coisas - é um conceito que se refere à


interconexão digital de objetos cotidianos com a internet, conexão dos
objetos mais do que das pessoas.

↳ Em outras palavras, a internet das coisas nada mais é que uma rede de
objetos físicos capaz de reunir e de transmitir dados.

 Logo,

↳ A Internet das Coisas (IoT, do inglês Internet of Things) é a conexão


entre objetos físicos, ambientes e pessoas em uma rede, possibilitada
por dispositivos eletrônicos que viabilizam a coleta e a troca de dados.

*E, como vimos na (PRF/2021), A Internet das coisas (IoT) aumenta a


quantidade e a complexidade dos dados por meio de novas formas e
novas fontes de informações, influenciando diretamente em uma ou mais das
características do big data, a exemplo de volume, velocidade e variedade.

O grande volume de dados produzidos influencia diretamente o Big Data.

O conceito de Big Data, ou popularmente "um grande volume de dados" possui


características que são enumeradas por 3Vs, 5Vs ou mais.

- Volume - grande quantidade de dados.

- Velocidade - produzidos rapidamente por muitas fontes.

- Variedade - com formatos e informações diferentes.

Algumas literaturas consideram como 5Vs, acrescentando às características


anteriores:

- Veracidade - dados corretos obtidos do ambiente por sensores.

- Valor - com significância e utilidade para o processamento.

Gostei(6)Respostas(1)
Reportar abuso
9

Big Data

Big data são dados com maior variedade que chegam em volumes crescentes
e com velocidade cada vez maior. Conheça os três V's do Big Data:

1. Volume
2. Velocidade
3. Variedade

A partir dos conceitos, vamos refletir.

A internet das coisas é a capacidade de quase tudo estar conectado à internet


como, por exemplo, uma câmera de segurança, televisões, videogames. Com
esse monte de coisas conectadas à internet a quantidade e a complexidade
dos dados são aumentadas através dessas novas formas e novas fontes de
informações o que influencia diretamente nas características do Big Data. O
volume de informações aumenta. Se o volume aumenta, necessariamente a
velocidade com que essas informações são recebidas deve ser maior (imagina
você ter que transferir 1GB de arquivo por um USB 2.0, vai demorar muito. Por
isso eles criaram o USB 3.0). E por último, logicamente, se o volume de dados
aumenta a variedade desses dados provavelmente será maior já que há
câmeras de segurança compartilhando dados de imagens, videogames
compartilhando dados de jogos e televisões compartilhando dados de
streaming.

Causas ou características do BIG DATA

1 Velocidade

2 volume

3 variedade

EFEITOS DO BIG DATA "O RESULTADO DE TAMANHOS INVESTIMENTOS


EM VELOCIDADE,

VOLUME E VARIEDADE"

4 VALOR

5 VERACIDADE

Bizu dos 5V's: 2VA 2VE 1VO


10

VARIEDADE

VALOR

VELOCIDADE

VERACIDADE

VOLUME

BIG DATA ENGLOBA DADOS ESTRURADOS E NÃO ESTRUTURADOS

Além de estar relacionado à grande quantidade de informações a serem


analisadas, o Big Data considera o volume, a velocidade e
a variedade dos dados estruturados — dos quais se conhece a estrutura
de armazenamento — bem como dos não estruturados, como imagens,
vídeos, áudios e documentos. CERTO

IoT − Internet of Things (Internet das coisas) é um conceito que surgiu com
a popularização da Internet, com a objetivo de interligar equipamentos
usados em nosso cotidiano com a Internet. Tecnologias desenvolvidas
recentemente tornaram tal comunicação possível, com a redução de custos
dos dispositivos utilizados, e a tendência é um uso cada vez maior de tal
tecnologia, que permite que sensores e eletrodomésticos sejam conectados
à Internet e controlados através até mesmo de smartphones.

Big data é a tecnologia de análise e interpretação de grandes volumes de


dados, visando a tomada de decisões. Sua definição formal é dada por um
conjunto de três a cinco “Vs”: inicialmente, a definição para “Vs” é de dados
produzidos com volume, velocidade e variedade. Os demais dois “Vs”
representam veracidade e valor."

O ITEM ESTÁ CERTO pois, de fato, com a implementação da Internet das


Coisas, temos uma nova modalidade de obtenção de dados de
equipamentos os quais até bem pouco tempo não geravam tais informações,
como ocorre com os sensores e equipamentos eletrônicos domésticos, ou seja,
observamos uma influência da IoT nos 3 Vs (ou seja, nas três características)
do Big Data, com o aumento no volume e na variedade de informações e a
consequente necessidade de aumentar a velocidade de processamento, já
que haverá uma quantidade maior de informações.
11

(CESPE - 2021/ TCE-RJ) Volume, variedade e visualização são as três


características, conhecidas como 3 Vs, utilizadas para definir Big Data.
(ERRADO)

(CESPE - 2021/ TCE-RJ) Em Big Data, a premissa volume refere-se à


capacidade de processar, em um ambiente computacional, diferentes tipos e
formatos de dados, como fotos, vídeos e geolocalização. (ERRADO)

(CESPE - 2021/ TCE-RJ) Os fatores críticos de sucesso da análise de Big


Data incluem uma sólida infraestrutura de dados, além de ferramentas
analíticas e pessoal habilitado para lidar com elas. (CERTO)

Respondendo a questão com outras do assunto: IOT E BIG DATA

1. (CESPE/2021/SEED-PR) A Internet das Coisas é a conexão entre


objetos físicos, ambientes e pessoas em uma rede, possibilitada por
dispositivos eletrônicos que viabilizam a coleta e a troca de
dados. CERTA
2. (CESPE/2021/SEED-PR)Big data está ligado à captura e à análise de
quantidades massivas de dados, por meio de sistemas de informação
robustos. CERTA
3. (CESPE-2017) Além de estar relacionado à grande quantidade de
informações a serem analisadas, o Big Data considera o volume, a
velocidade e a variedade dos dados estruturados — dos quais se
conhece a estrutura de armazenamento — bem como dos não
estruturados, como imagens, vídeos, áudios e documentos. CERTA
4. (CESPE - 2018 - Polícia Federal - Papiloscopista) De maneira geral, big
data não se refere apenas aos dados, mas também às soluções
tecnológicas criadas para lidar com dados em volume, variedade e
velocidade significativos. CERTA
5. (CESPE - 2018 - FUB - Engenheiro) A Internet das coisas (IoT), fusão
de redes de informação e de redes físicas, permite monitorar operações
ou processos por meio da comparação entre o que é executado e o que
foi previamente planejado. CERTA
6. Na IoT, os objetos podem prover comunicação entre usuários e
dispositivos, viabilizando diversas aplicações, tais como coleta de dados
de pacientes e monitoramento de idosos e sensoriamento de ambientes
de difícil acesso. CERTA

O Big Data possui os famosos "5V's" :


12

 V olume: Grande quantidade.


 V ariedade: São variados.
 V elocidade: São criados de uma forma extremamente rápida.
 V alor: Devem possuir valor, ou seja, deve agregar conhecimento.
 V eracidade: Devem ser verídicos, verdadeiros.

(CESPE-PF 2018) Big data refere-se a uma nova geração de tecnologias e


arquiteturas projetadas para processar volumes muito grandes e com grande
variedade de dados, permitindo alta velocidade de captura, descoberta e
análise. (C)

(CESPE-SEED/PR-2021) A Internet das Coisas é a conexão entre objetos


físicos, ambientes e pessoas em uma rede, possibilitada por dispositivos
eletrônicos que viabilizam a coleta e a troca de dados. (C)

(CESPE-SEED/PR-2021)Big data está ligado à captura e à análise de


quantidades massivas de dados, por meio de sistemas de informação
robustos. (C)

MEU RESUMO DE BIG DATA

INTRODUÇÃO:

- Tudo gera informação.

- Quantidade de dados gerados é absurda;

- Desses dados gerados, cerca de 80 a 95% são dados NÃO


ESTRUTURADOS (Necessita de informações
para CLASSIFICAR, CATEGORIZAR, ORDENAR e ORGANIZAR de uma
forma mais fácil de se encontrar esses dados).

O QUE É O BIG DATA?

--> Tecnologia utilizada para analisar grandes volumes de


dados estruturados e não estruturados.

--> Mediante algoritmos estatísticos avançados, que podem ser:

- Análise preditiva;
13

- Tendências --> prevê, analisa comportamento, dados que não existem


também.

Ou seja, big data não é apenas os dados em si, mas também as soluções
tecnológicas criadas para lidar com esses dados.

O QUE NÃO É BIG DATA?

- Grandes volumes de dados, APENAS.

- Dados estruturados, APENAS.

--> (Eles por si sós não caracterizam a BIG DATA)

OS 5Vs DO BIG DATA:

- Volume, velocidade, variedade, veracidade e valor.

BIZU --> VA - VE - VO (2VA, 2VE e 1VO)

 Volume - quantidade de dados. Quanto maior o volume , maiores os


esforços na gestão de dados.
 Velocidade - desafio de lidar com o tempo rápido de resposta que os
novos dados são criados e os dados existentes, modificados.
 Variedade - implementações de dados que requerem tratamento
de vários formatos e tipos, incluindo dados estruturados e não
estruturados
 Veracidade - consiste no grau de incerteza e inconsistência dos
dados devido às ambiguidades, à baixa qualidade e à completeza dos
dados, além disso, representa a confiabilidade dos dados
 Valor- Retorno, financeiro ou não.

Fonte: resumos.

Com relação a Big Data: os fatores críticos de sucesso da análise de Big


Data incluem uma sólida infraestrutura de dados, além de ferramentas
analíticas e pessoal habilitado para lidar com elas.

Fatores críticos de sucesso da análise de Big Data:


14

- Sólida infraestrutura (hardware).

- Ferramentas (software) que facilitem a análise de grandes volumes de dados.

- Pessoal Habilitado.

fonte: comentario do WAS

Se a coleta de dados, no Big Data, for bem direcionada ao requerido nicho


especifico, a possibilidade de precisão é muito maior. Porém, o fator humano
continua sendo o ponto crucial da análise dos números, visto que nela
predomina a subjetividade. No que se refere às informações finais, divulgadas
aos stakeholders e gestores públicos, a visualização deve ser transmitida de
forma fácil e direta, possuindo layout simples e dinâmico, conforme o formato
escolhido para a apresentação, como por exemplo, tabelas, gráficos,
esquemas, mapas mentais etc.

(BARCELLOS, 2017; MORAES, 2018; VIEIRA et al, 2015).

Stakeholder é “qualquer grupo ou indivíduo que pode afetar ou é afetado pela


realização dos objetivos de uma empresa” FREEMAN (1984, p. 25).

fonte: comentário cavaleiro templário

Os fatores críticos de sucesso da análise de Big Data incluem:

uma sólida infraestrutura de dados,

além de ferramentas analíticas e pessoal habilitado para lidar com elas.

Ø Big Data:

 consiste de um grande depósito de dados estruturados,


semiestruturados e não estruturados:
 Sólida infraestrutura (hardware).
 Capacidade de fazer a análise de dados, com o uso de ferramentas
especificas e técnico habilitado.
 Pessoal Habilitado (Conhecimento técnico).
 Estuda como tratar, analisar e obter informações a partir de conjuntos de
dados grandes (data driven) demais para serem analisados por sistemas
tradicionais.
 O volume de dados é uma característica importante de Big Data.
(Grande banco de dados)
 Ferramentas (software) que facilitem a análise de grandes volumes
de dados.
15

 A qualidade do dado tem importância, pois a transformação dos dados


impacta nos negócios.(Dados estruturados ou não estruturados)
 A velocidade de entrada dos dados impacta o modelo de processamento
e armazenamento. (Para melhor proveito, usa-se Data Mining e Data
Warehouse.)
 A variedade dos dados é característica intrínseca nos fundamentos
de Big Data. (Engloba todos os tipos de dados)

5 VS: VOLUME, VELOCIDADE, VARIEDADE, VALOR, VERACIDADE

no Banco o juiz Flamenguista diz : VO VE o VAR o técnico responde VA


VER mesmo.

As superchaves e as chaves primárias são utilizadas para identificar de forma


única as instâncias de uma entidade em um banco de dados relacional. Elas
são essenciais para garantir a integridade dos dados e facilitar o
processamento das informações. A superchave é um conjunto de um ou mais
atributos que identifica exclusivamente uma tupla em uma tabela, enquanto a
chave primária é uma superchave escolhida para ser a identificação principal
de uma tabela.

Ambas desempenham um papel fundamental na estruturação e organização


dos dados em um banco de dados relacional.

Gostei(1)Respostas(0)
Reportar abuso

- Chave Primária = NOT NULL, Coluna ou combinação de


colunas MÍNIMA cujos valores distinguem uma linha das demais dentro de uma
tabela.

- Super Chave = Trata-se de uma coluna ou uma combinação de colunas


contendo valores únicos para cada linha.

- A combinação de todas as colunas em uma tabela sempre é uma


SUPERCHAVE, porque as linhas de uma relação devem ser sempre únicas.
16

Agora Lembre-se da INDEXAÇÃO, Principalmente dos índices Primários

Entidade = Tabela/Relação

Tupla = linha/registro

Atributo = campo (PF/2021)/ coluna

Cada linha formada por uma lista ordenada de colunas representa um


registro ou tupla. Os registros não precisam conter informações em todas as
colunas, podendo assumir valores nulos quando assim se fizer necessário.
Resumidamente, um registro é uma instância (linha) de uma
tabela/entidade. (e não a tabela em si)

Fonte: Wikipédia.

Aqui estão os conceitos completos e explicativos de forma clara e concisa ->

https://www.diegomacedo.com.br/fundamentos-da-administracao-de-dados-
tabelas-entidades-relacao-colunas-atributos-linhas-registros-tuplas-indices-
chaves-e-relacionamentos/

Os índices são estruturas criadas para aumentar a rapidez das consultas.


São estruturas de acesso auxiliares associados a tabelas, que são utilizados
para agilizar a recuperação de registros em resposta a certas condições de
pesquisa.

Fonte: Meus resumos

1. Data mining classificação → Aprendizado supervisionado


2. Agrupamento de dados → Aprendizado não-supervisionado.

 Agrupamento (Clustering) / Associação => NÃO supervisionado


 Classificação / Regressão / Detecção de desvios => Supervisionado

Agrupamento (Clustering)

 NÃO supervisionado
 Não são classificado
17

 Não tem estrutura definida

 *São agrupado conforme sua semelhança não podem ser REALOCADO

 * Utiliza algoritmos com heurísticas para fins de descoberta de


SIMILARIDADES e agregações naturais

 *Agrupar um conjunto de objetos de tal forma que estes, juntos no


mesmo grupo, sejam mais semelhantes entre si que em outros grupos.
(PF2021)

MINERAÇÃO DE DADOS

A respeito de mineração de dados: no método de mineração de dados por


agrupamento (clustering), são utilizados algoritmos com heurísticas para
fins de descoberta de agregações naturais entre objetos.

AGRUPAMENTO (Clustering)

 Identifica os elementos SIMILARES (homogêneos) e AGRUPA


automaticamente.
 Não possui classes pré-definidas.
 Utiliza algoritmos com heurísticas para fins de descoberta de
SIMILARIDADES e agregações naturais (formação de grupos) fonte:
comentário bruno cerqueira.

AGRUPAMENTO (Clustering)

 Identifica os elementos SIMILARES (homogêneos) e AGRUPA


automaticamente.
 Não possui classes pré-definidas.

 Utiliza algoritmos com heurísticas para fins de descoberta de


SIMILARIDADES e agregações naturais (formação de grupos)

______________

(CESPE) A análise de clustering é uma tarefa que consiste em agrupar um


conjunto de objetos de tal forma que estes, juntos no mesmo grupo,
sejam mais semelhantes entre si que em outros grupos. (CERTO)

________
18

(CESPE) O uso de agrupamento (clustering) em DataMining exige que os


registros sejam previamente categorizados, tendo por finalidade
aproximar registros similares para predizer valores de
variáveis. (ERRADO)

· Trata-se de Classificação (classes pré-definidas e preditivo)

________

(CESPE) A técnica de agregação na mineração de dados atua em


conjunto de registros que tenham sido previamente
classificados. (ERRADO)

obs: Agregação = Agrupamento (clustering)

· Trata-se de Classificação (classes pré-definidas)

________

(CESPE) No método de mineração de dados por agrupamento (clustering),


são utilizados algoritmos com heurísticas para fins de descoberta
de agregações naturais entre objetos. (CERTO)

 Utiliza algoritmos com heurística para fins de descoberta de


SIMILARIDADES e agregações naturais (formação de grupos)

________

(CESPE) Em se tratando de mineração de dados, a técnica de agrupamento


(clustering) permite a descoberta de dados por faixa de valores, por meio
do exame de alguns atributos das entidades envolvidas. (CERTO)

Gostei(68)Respostas(1)
Reportar abuso

CLUSTERING -> AGRUPAMENTO OU AGLOMERAÇÃO

Técnica de mineração de dados que possibilita a realização de agrupamentos


automáticos de dados segundo seu grau de semelhança.

Q CESPE

Agrupar registros em grupos, de modo que os registros em um grupo


sejam semelhantes entre si e diferentes dos registros em outros grupos é uma
maneira de descrever conhecimento descoberto durante processos de
mineração de dados.
19

gab: C

Adendo:

-se começar com A é não supervisionado

-se não começar com A é supervisionado

NÃO supervisionados: utiliza-se a heurística (aproximação progressiva)

 Agrupamento (lembrar que também pode ser chamado de Clustering)

Cluster - Um agrupamento é uma coleção de registros similares entre si,


porém diferentes dos outros registros nos demais agrupamentos. Esta tarefa
difere da classificação uma vez não necessita que os registros sejam
previamente categorizados – trata-se de um aprendizado não-supervisionado.

 Associação

As regras de associação adotadas em mineração de dados buscam padrões


frequentes entre conjuntos de dados e podem ser úteis para caracterizar, por
exemplo, hábitos de consumo de clientes: suas preferências são identificadas e
em seguida associadas a outros potenciais produtos de seu interesse.

Supervisionados: (há conjunto de treinamento e grupos predefinidos)

 Classificação

Na ação de obtenção de informações por meio de aprendizado de máquina,


verificou-se que o processo que estava sendo realizado consistia em examinar
as características de determinado objeto e atribuir-lhe uma ou mais classes;
verificou-se também que os algoritmos utilizados eram embasados em
algoritmos de aprendizagem supervisionados. Assertiva: Nessa situação, a
ação em realização está relacionada ao processo de classificação. Q933315

 Regressão
 Detecção de desvios

Os principais métodos de mineração de dados:

Rede Neurais

 Árvore de Decisão
 Algoritmos Genéticos

 Lógica Fuzzy (Difusa)


20

 Estatística

Só com isso você já consegue matar 95% das questões de data mining

Gostei(27)Respostas(2)
Reportar abuso

Algoritmos por heurística se referem ao comportamento e aproximação


progressiva. Como por exemplo os antivírus de segunda geração que utilizam
técnicas heurísticas.

Gostei(12)Respostas(0)
Reportar abuso

mineração de dados por agrupamento (clustering), são


utilizados algoritmos com heurísticas

Gostei(3)Respostas(0)
Reportar abuso

O agrupamento (clustering) é uma técnica que visa fazer agrupamentos


automáticos de dados segundo o seu grau de semelhança, permitindo a
descoberta por faixa de valores e pelo exame de atributos das entidades
envolvidas.

Mineração:
>>> O fator de suporte e o fator de confiança são dois índices utilizados para
definir o grau de certeza de uma regra de associação. (C)

 Suporte / Prevalência: Trata-se da frequência


 Confiança / Força: Trata-se da Probabilidade/Certeza.
21

REGRAS DE ASSOCIAÇÃO: visa descobrir o relacionamento ou


correlação entre variáveis de um banco de dados.

Suporte / Prevalência: Trata-se da frequência com que um conjunto de itens


específico ocorre no banco de dados, isto é, o percentual de transações que
contém todos os itens em um conjunto (Ex: 50% das compras realizadas em
um mercado contém arroz e refrigerante).

Confiança / Força: Trata-se da probabilidade de que exista uma relação entre


itens (Ex: 70% dos clientes que compram fraldas também compram cerveja).

Fonte: Estratégia Concursos.

A respeito de mineração de dados: o fator de suporte e o fator de confiança


são dois índices utilizados para definir o grau de certeza de uma regra de
associação.

Gostei(13)Respostas(0)
Reportar abuso

Os principais métodos de mineração de dados:

 Rede Neurais
 Árvore de Decisão
 Algoritmos Genéticos
 Lógica Fuzzy (Difusa)
 Estatística

 Redes neurais: elementos interconectados, chamados neurônios,


organizados em camadas que aprendem pela modificação de suas
conexões.

 Árvore de decisão: utiliza a estratégia "dividir para conquistar"; um


problema complexo é decomposto em problemas mais simples
recursivamente (raiz, ramo, folha). É preditivo. Hierarquia de
declarações "se... então...".

 Lógica difusa (fuzzy logic ou lógica nebulosa): é uma teoria matemática


que visa imitar o raciocínio humano na tomada de decisões.
22

(Policia Federal/2018) Descobrir conexões escondidas e prever tendências


futuras é um dos objetivos da mineração de dados, que utiliza a estatística, a
inteligência artificial e os algoritmos de aprendizagem de máquina. (C)

O objetivo dessas tarefas é derivar padrões (correlações, tendências, grupos,


trajetórias e anomalias) que resumem os relacionamentos subjacentes nos
dados

(Policia Federal/2018)pode-se definir mineração de dados como o processo


de identificar, em dados, padrões válidos, novos, potencialmente úteis e, ao
final, compreensíveis. (C)

(CESPE/EBSERH/ANALISTA DE TECNOLOGIA DA INFORMAÇÃO/2018) A


descoberta de novas regras e padrões em conjuntos de dados fornecidos, ou
aquisição de conhecimento indutivo, é um dos objetivos de data mining. (C)

(FCC/2015)As ferramentas de Data Mining permitem ao usuário avaliar


tendências e padrões não conhecidos entre os dados. Esses tipos de
ferramentas podem utilizar técnicas avançadas de computação como redes
neurais, algoritmos genéticos e lógica nebulosa, dentre outras.(C)

A finalidade do uso do data mining em uma organização é subsidiar a produção


de afirmações conclusivas acerca do padrão de comportamento exibido por
agentes de interesse dessa organização. (C)

A descoberta de novas regras e padrões em conjuntos de dados fornecidos,


ou aquisição de conhecimento indutivo, é um dos objetivos de data mining.(C)

(Ano: 2011 Órgão: SEDUC-AM) A mineração de dados (data mining) é um


método computacional que permite extrair informações a partir de grande
quantidade de dados. CERTA

As ferramentas de Mineração de Dados (Data Mining) permitem ao


usuário avaliar tendências e padrões não conhecidos entre os dados.
Esses tipos de ferramentas podem utilizar técnicas avançadas de
computação como redes neurais, árvores de decisão, algoritmos
genéticos (AGs) e lógica nebulosa (Fuzzy logic – teoria matemática que
permite uma modelagem do modo aproximado de raciocínio, imitando a
habilidade humana de tomar decisões em ambientes de incertezas e
imprecisão. Com isso, pode-se construir sistemas inteligentes de controle
e suporte à decisão), estatística etc.

(FCC/CNMP/ANALISTA DO CNMP/DESENVOLVIMENTO DE
SISTEMAS/2015) Em relação às ferramentas de Data Discovery e os
fundamentos de Data Mining, é correto afirmar:
23

e) As ferramentas de Data Mining permitem ao usuário avaliar tendências


e padrões não conhecidos entre os dados. Esses tipos de ferramentas
podem utilizar técnicas avançadas de computação como redes neurais,
algoritmos genéticos e lógica nebulosa, dentre outras.

Gostei(4)Respostas(0)
Reportar abuso

Os principais métodos de mineração de dados:

Mnemônico: RÁALE

 Rede Neurais
 Árvore de Decisão
 Algoritmos Genéticos
 Lógica Fuzzy (Difusa)
 Estatística

Espero que ajude!

Leva isso aqui no teu bolso que tu vai responder uma dessa. Tô brincando... Tô
não!

Mineração de dados: é um conjunto de processos, métodos, teorias,


ferramentas e tecnologias open-end utilizadas para explorar, organizar e
analisar de forma semi-automática uma grande quantidade de dados brutos
com o intuito de identificar, descobrir, extrair, classificar e agrupar informações
implícitas desconhecidas, além de avaliar correlações, tendências e padrões
consistentes de comportamento potencialmente úteis – como regras de
associação ou sequências temporais – de forma não-trivial por meio
de técnicas estatísticas e matemáticas, como redes neurais, algoritmos
genéticos, inteligência artificial, lógica nebulosa/DIFUSA, análise de
conglomerados (clusters), entre outros.

Os principais métodos de mineração de dados:

Rede Neurais
24

 Árvore de Decisão
 Algoritmos Genéticos
 Lógica Fuzzy (Difusa)
 Estatística

Adendo:

-se começar com A é não supervisionado

-se não começar com A é supervisionado

NÃO supervisionados: utiliza-se a heurística (aproximação progressiva)

 Agrupamento (lembrar que também pode ser chamado de Clustering)

Cluster - Um agrupamento é uma coleção de registros similares entre si,


porém diferentes dos outros registros nos demais agrupamentos. Esta tarefa
difere da classificação uma vez não necessita que os registros sejam
previamente categorizados – trata-se de um aprendizado não-supervisionado.

 Associação

As regras de associação adotadas em mineração de dados buscam padrões


frequentes entre conjuntos de dados e podem ser úteis para caracterizar, por
exemplo, hábitos de consumo de clientes: suas preferências são identificadas e
em seguida associadas a outros potenciais produtos de seu interesse.

Supervisionados: (há conjunto de treinamento e grupos predefinidos)

 Classificação
 Regressão
 Detecção de desvios

Só com isso você já consegue matar 95% das questões de data mining

Seria interessante o professor do QC postar o gabarito com a justificativa,


pois muitos podem acabar se prejudicando por conta de alguns
comentários.

Para finalizar: uma chave é um conjunto de um ou mais atributos que servem


para identificar de forma única uma linha da tabela.

GranCursos
25

TÉCNICAS E TAREFAS EM DATA MINING

A técnica de Predição/Previsão busca descrever a natureza de ocorrências


futuras de certos eventos com base nos acontecimentos passados;

A técnica de Associação busca descobrir relacionamentos entre variáveis


correlacionando a presença de um item com uma faixa de valores para outro
conjunto de variáveis; e

A técnica de agrupamento particiona dados em segmentos previamente


desconhecidos com características semelhantes.

data mining ou mineração de dados sempre está em busca de novos padrões


tendo em base a comparação aos dados armazenados no datawarehouse que
e um repositório de dados que permite a consulta.

O data mining consiste no processo virtual em que uma máquina realiza de


maneira programada a prospecção e coleta de dados no ambiente eletrônico.

Ou seja, é uma forma ativa e automatizada de obter informação a partir da


internet e de sistemas em rede.

Perfeito! Na Mineração de Dados, uma regra de associação relaciona a


presença de um conjunto de itens com outra faixa de valores de um outro
conjunto de variáveis. Uma regra de associação pode ser vista como uma
expressão da forma X → Y, onde há a relação dos valores de X e Y em um
certo conjunto de valores (Ex: {fralda} → {cerveja}).

Gabarito: Correto

Fonte: estratégia

Superchaves e chaves candidatas

Na maioria dos casos, uma tabela pode ter múltiplos conjuntos de


atributos que são capazes de identificar unicamente cada registro,
incluindo, mas não se limitando à chave primária. Esses conjuntos são
conhecidos como superchaves.
26

Como todos os registros de uma tabela são diferentes entre si (lembra que uma
relação é um conjunto de tuplas distintas?), então há pelo menos
uma superchave em cada tabela de um BD relacional: aquela que é composta
por todos os atributos da relação.

 Se todas as tuplas são diferentes, então cada conjunto de todos os


atributos logicamente será único!

Só que na maioria das vezes, não é necessário usar todos os atributos da


relação para identificar unicamente cada tupla. Por exemplo, na
tabela Pessoas que já vimos, somente a utilização do atributo CPF já era
suficiente, como nós vimos. Assim, não há nenhuma necessidade de se usar
todo o conjunto composto por todos os atributos (CPF, Nome, Dt. Nascimento,
Cidade) como chave primária, pois só o CPF já basta.

Assim, podemos considerar que CPF é uma chave mínima, pois é uma
chave composta pela quantidade mínima de atributos possível para identificar
cada atributo da relação.

Veja que se você pegar os conjuntos {CPF, Nome}, {CPF, Nome, Dt.
Nascimento} ou {CPF, Nome, Dt. Nascimento, Cidade}, todos eles são capazes
de identificar unicamente cada tupla também – os valores desses conjuntos de
atributos não se repetem na relação. Só que esses conjuntos serão
considerados somente superchaves e não chaves mínimas, pois são sim
capazes de identificar cada tupla, mas tem atributos desnecessários aí no
meio, uma vez que somente o CPF já seria suficiente.

Uma tabela pode ter mais de uma chave mínima. Se a tabela também tivesse
uma chave substituta como “idPessoa”, tanto CPF quanto idPessoa seriam
consideradas chaves mínimas, pois têm a quantidade mínima de atributos
necessários para identificar unicamente cada tupla, não apresentando nenhum
atributo supérfluo (desnecessário) em sua composição.

Essas chaves mínimas, durante o projeto do BD, são conhecidas como chaves
candidatas, pois são candidatos a ser a chave primária. Só que, como
sabemos, uma tabela sempre terá somente uma chave primária, então iremos
escolher somente uma das chaves candidatas para ser chave primária.

Então o processo de escolha da chave primária fica assim:


27

 Superchaves são todos os conjuntos de atributos que podem


identificar unicamente uma tupla
 Chaves candidatas são as superchaves que são mínimas (sem
atributos desnecessários)
 A chave primária é escolhida dentre as chaves candidatas

Uma chave é um conjunto de um ou mais atributos que servem para identificar


de forma única uma linha da minha tabela. Formalmente, chamamos as linhas
de tuplas.

Por exemplo, podemos escolher o CPF ou o RG como uma chave. Note que as
pessoas possuem um único CPF e um único RG. Assim tanto o CPF como RG
podem ser usadas como chave para identificar de forma única um registro no
meu banco de dados.

Ao invés de usar CPF, poderíamos usar uma chave que combina o atributo
CPF com um atributo nome. Nesse caso, eu tenho uma superchave. Uma
superchave tem a mesma característica de uma chave. Ou seja, identifica as
linhas de forma única.

A partir de uma superchave eu posso sempre criar uma nova superchave. Para
tanto, basta adicionar atributos. Por exemplo, poderia criar uma super chave
formada pelos atributos CPF, nome e sobrenome.

Note que qualquer superconjunto de uma superchave é uma nova superchave.


Ou seja, toda vez que eu adiciono uma coluna a minha superchave ela
continua sendo superchave.

Em termo práticas, não é interessante o uso de superchaves quaisquer. O que


queremos é usar superchaves mínimas.

E o que é uma superchave mínima? É aquele que se retirarmos um atributo ela


deixa de ser chave. Ou seja, tem o mínimo de atributos necessários para ser
uma chave.

As chaves mínimas são chamadas de chaves candidatas. Para um


determinado projeto podemos ter várias chaves candidatas. Por exemplo, CPF
e RG são exemplos de atributos que podem ser chaves candidatas.

O projetista do banco de dados tem que escolher uma das chaves candidata
para usar efetivamente. Essa chave escolhida é chamada de chave primária.
As demais chaves candidatas são chamadas de chaves alternativas.
28

Por fim, temos as chaves estrangeiras. A chave estrangeira é um atributo da


tabela que é chave primária de outra tabela. Com isso é possível fazer um
relacionamento entre duas tabelas.

Fonte: GranCursos

Gostei(13)Respostas(0)
Reportar abuso

Superchave: Conjunto de um ou mais atributos, que permitem identificar de


maneira unívoca uma entidade em um conjunto de entidades.

Chave Primária: Asseguram que cada tupula é Unica.

Superchave --> unicidade

chave primária --> unicidade + irredutibilidade (chave mínima)

➥CESPE - 2018 - TCM-BA - Auditor Estadual de Controle Externo

A respeito de entidades, relacionamentos e tipos de chave, assinale a opção


correta.

Um identificador ou chave é usado para determinar exclusivamente uma


instância de um relacionamento entre entidades. ERRADA

Gostei(37)Respostas(1)
Reportar abuso

Superchaves e chaves primárias são utilizadas para diferenciar de maneira


única as instâncias (entidade) de uma entidade (Conjunto de entidades),
assim como para facilitar o processamento.

=> Uma Superchave é um conjunto de um ou mais atributos que, tomados


coletivamente, nos permitem identificar de maneira unívoca uma entidade em
um conjunto de entidades.
29

=> Chaves Candidatas são chaves que identificam univocamente uma


entidade.

 Chave primária é a chave candidata escolhida pelo projetista.

CORRETO

O modelo entidade-relacionamento (MER) é uma abordagem amplamente


utilizada para modelar sistemas de banco de dados, permitindo a
representação e organização dos elementos do sistema, como entidades,
atributos, relacionamentos e associações. Por meio de diagramas, o modelo
entidade-relacionamento oferece uma representação visual clara e concisa das
estruturas e interações presentes no sistema, auxiliando na compreensão e no
projeto do banco de dados.

OBS: O Diagrama Entidade Relacionamento (Diagrama ER ou ainda DER)


nada mais é que a representação gráfica do MER

Questão CORRETA

Se fosse DER/MER ali o resultado continuaria como CORRETO.

Só lembrar das transformações do CONCEITUAL para o LÓGICO

- TUPLA no DER/MER = Linha/Registro/Relvar no RELACIONAL.

- Entidade/Relacionamento no DER/MER = Tabela no RELACIONAL

- Atributo DER/MER = Coluna/Campos no RELACIONAL

- Relacionamento no DER/MER = Chave Estrangeira no RELACIONAL

- Relacionamento Identificador no DER/MER = Chave Primária no


RELACIONAL

Associação = Entidade Associativa

Modelo entidade-relacionamento ou diagrama entidade relacionamento


(também chamado MODELO ER, ou simplesmente MER ou DER),
(Desenvolvido por Peter Chen em 1976) como o nome sugere, é um MODELO
CONCEITUAL de alto nível de abstração, utilizado na Engenharia de
Software para descrever os objetos (entidades) envolvidos em um domínio de
negócios, com suas características (atributos) e como elas se relacionam entre
sim (relacionamentos).
30

 Modelo entidade-relacionamento (ER/MER):

➟ conceitual (como elas vão se relacionar)

 Diagrama entidade-relacionamento (DER):

➟ quando se fala em DIAGRAMA = representação/notação gráfica.

Quando o Peter Chen desenvolveu o MER descreveu que uma entidade


representava os conceitos do domínio e relacionamentos que mostrava as
associações entre as entidades, e o relacionamento está para mostrar o grau
de associação entre as entidades.

Sendo assim um relacionamento só pode estar associado a entidades, nunca a


outro relacionamento.

Será possível criar uma entidade associativa/agregação (é uma entidade


de nível superior que ora ela funciona como relacionamento, ora ela funciona
com entidade).

(CESPE - Q270981) o MER é um conjunto de conceitos aplicados na


modelagem dos dados, o DER é a representação gráfica do modelo. CERTO

(CESPE - Q995571)Trata-se de um modelo conceitual, onde são descritos


aspectos das entidades, relacionamentos e atributos que compõem o projeto
da base de dados. CERTO

O Modelo Entidade Relacionamento (também chamado Modelo ER, ou


simplesmente MER), como o nome sugere, é um modelo conceitual utilizado
na para descrever os objetos (entidades) envolvidos em um domínio de
negócios, com suas características (atributos) e como elas se relacionam entre
si (relacionamentos).

Entidades associativas: esse tipo de entidade surge quando há a


necessidade de associar uma entidade a um relacionamento existente. Na
modelagem Entidade-Relacionamento não é possível que um relacionamento
seja associado a uma entidade, então tornamos esse relacionamento uma
entidade associativa, que a partir daí poderá se relacionar com outras
entidades.

Na minha opinião a questão está CERTA.

Os relacionamentos entre os elementos de um sistema podem ser


expressos = (traduzidos, mostrados) por meio de diagramas = (os
símbolos: Retângulos, Elipses, Losangos e Linhas = Representação
Gráfica = DER).
31

MER, é um padrão de modelagem conceitual com base em objetos criado


por Peter Chen em 1976. Esse modelo trabalha com entidades, atributos e
relacionamentos. Nesse caso, os componentes do modelo entidade-
relacionamento são representados graficamente por um Diagrama de
Entidade Relacionamento, conhecido como DER.

Quanto à associação não há o que dizer que ela traz erro ao enunciado,
veja:

Entidade Associativa: também denominada agregação, trata-se de uma


abstração pela qual os relacionamentos são tratados como entidades de nível
superior. Quanto à notação gráfica, temos o retângulo com um losango em
seu interior para indicar a entidade associativa.

Espero que você tenha gostado — mais que isso — espero que você
tenha compreendido o assunto.

Gostei(7)Respostas(3)
Reportar abuso

Alguns autores incluem Sabedoria acima de Inteligência

__________

Gostei(4)Respostas(0)
Reportar abuso

Data Warehouse:

 Tomada de decisão adequada


 NÃO VOLÁTIL

 Tipicamente multidimensionais

 Melhor desempenho na consulta e análise de dados

 Dados consolidados de várias fontes

 Análise de dados históricos


32

 Tem o datamart - que organiza o banco de dados, agindo como


um subconjunto lógico (já explorado em outra questão) -> este é
VOLÁTIL.

Enterprise Data Warehouse (EDW):

Traduzido como Armazém de Dados Corporativos ou Abrangentes, é um


repositório central tático/estratégico que contém todas as informações de
negócio de uma organização de forma acessível para toda empresa com
a finalidade de suportar as análises de decisões. Grosso modo é possível
afirmar que um EDW é um DW de larga escala – grande e abrangente – que é
utilizado pela organização como um todo e que congrega informações de
diversas fontes de dados.

Fonte: Estratégia concursos

Um Enterprise Data Warehouse é um armazém de dados especializado, que


pode ter várias interpretações.

O Enterprise Data Warehouse surgiu a partir da convergência de oportunidade,


capacidade, de infraestrutura e da necessidade de dados que tem aumentado
exponencialmente nos últimos anos. Como a tecnologia tem avançado muito
rapidamente, as empresas tentam fazer o seu melhor para se adequar a tal
mudança de modo que estejam presentes no topo da concorrência no setor.

FONTE - https://www.mjvinnovation.com/pt-br/blog/enterprise-data-
warehouse/#:~:text=Um%20Enterprise%20Data%20Warehouse
%20%C3%A9,aumentado%20exponencialmente%20nos%20%C3%BAltimos
%20anos.

No ambiente de data warehouse a atualização de dados em uma arquitetura


controlada por destino ocorre quando o data warehouse envia periodicamente
solicitações por novos dados às fontes.

A atualização de um data warehouse é feita periodicamente, conforme a


necessidade, sendo que ela é feita normalmente de forma incremental, ou seja,
não são retiradas informações do data warehouse e sim acrescidos somente os
novos dados.

Existem três etapas no processo de um data warehouse, chamadas de ETL


(extração, transformação e carga).

recebe informações de diferentes fontes, internas e externas..


33

Orientado por assunto: Refere-se aos sistemas transacionais organizados


em uma determinada aplicação de uma empresa

- Modelo Estrela = é basicamente uma Tabela de Fatos central conectada


a várias Tabelas de Dimensão em um relacionamento 1:N, sendo uma única
tabela para cada dimensão.

- Modelo Snowflake = é basicamente uma Tabela de Fatos central


conectada a várias Tabelas de Dimensão, sendo possível haver várias
tabelas para cada dimensão.

O esquema multidimensional estrela de data warehouse é composto por uma


tabela de fatos associada com uma única tabela para cada dimensão.

O data warehouse é integrado, não volátil e orientado a assuntos, contudo,


embora lide com dados e os armazene para a tomada de decisões gerenciadas

Orientado por assunto: Refere-se aos sistemas transacionais organizados


em uma determinada aplicação de uma empresa

Não volátil: Nos sistemas transacionais os dados sofrem diversas alterações


como, por exemplo, a inclusão, alteração e exclusão de dados. No ambiente
do Data Warehouse os dados, antes de serem carregados, são filtrados e
limpos “gerando informação”. Após esta etapa esses dados sofrem
somente operações de consulta e exclusão, sem que possam ser alterados,
e esta característica representa a não-volatilidade.

Data Warehouse - DW - ou Enterprise Data Warehouse - EDW - são


repositórios , armazéns de dados empresariais consolidados , tratados com
níveis de segurança absolutos para garantir a integridade do negócio e sua
operação.

DW permite a integração dos dados corporativos distribuídos pelos nós da


rede, capturando, armazenando dados e os tornando acessíveis aos usuários
de níveis decisórios.

Enterprise Data Warehouse (EDW): contém todas as informações de negócio


de uma organização de forma acessível para toda empresa.

Sobre o assunto em questão:


34

(FCC/11) Um Data Warehouse é um repositório de dados atuais e históricos


de uma organização que possibilita a análise de grande volume de dados para
suportar a tomada de decisões estratégicas. CERTA

As ferramentas OLAP (On-line Analytical Processing) são capazes de analisar


grandes volumes de dados, fornecendo diferentes perspectivas de visão e
auxiliando usuários na sintetização de informações.CERTA

(CESPE/2009) Data Warehouse é uma coleção de dados orientados ao


assunto, que tem como características visão conceitual multidimensional,
operações interdimensionais irrestritas, dimensões e níveis de agregação
ilimitados, sendo que os dados são não voláteis e variantes no tempo. CERTA

CARACTERÍSTICA ESSENCIAIS: BIZU "HINO"

Histórico (variável ao longo do tempo)

Integrado

Não-volátil = uma vez os dados armazenados, eles permanecem lá, não


sendo alvo de atualizações e modificações frequentes.

Enterprise Data Warehouse (EDW): contém todas as informações de negócio


de uma organização de forma acessível para toda empresa.

Operational Data Store (ODS): repositório intermediário de dados utilizado


para relatórios operacionais e como uma fonte de dados para o Enterprise Data
Warehouse (EDW).

Data Mart (DM): trata-se de um subconjunto de dados de um Data


Warehouse.

Fonte: estratégia concursos

Um data warehouse empresarial é nada mais que um data warehouse que


contém dados de toda a empresa. Assim como todo DW, essa tecnologia irá
permitir que se integre dados em larga escala, oriundos de diversas fontes e
tratados para um formato padronizado (através do processo de ETL), com o
objetivo de subsidiar a tomada de decisão dentro da organização. Esse
processo está relacionado com a disciplina de BI (Business Intelligence) ou
inteligência de negócios.

Gostei(43)Respostas(0)
Reportar abuso
35

# O Modelo Entidade Relacionamento (também chamado Modelo ER, ou


simplesmente MER), como o nome sugere, é um modelo conceitual utilizado na
Engenharia de Software para descrever os objetos (entidades) envolvidos em
um domínio de negócios, com suas características (atributos) e como elas se
relacionam entre si (relacionamentos).

De acordo com a cardinalidade existem 3 tipos básicos de relacionamentos


entre as entidades.

• RELACIONAMENTOS UM PARA MUITOS

• RELACIONAMENTOS MUITOS PARA MUITOS

• RELACIONAMENTOS MUITOS PARA UM

Por exemplo: a modelagem de um carro (objeto do mundo real) que tem


propriedades (marca, ano, cor e número de chassi).

Dentre as propriedades da entidade Carro, o número do chassi identifica a


entidade de forma única, não vai existir um carro com dois números de chassis
iguais, ou seja, os valores de um subconjunto dessa propriedade “número de
chassi” identifica de maneira única a entidade carro.

Bons estudos...

entidade e atributos --> parte física

relacionamento --> parte abstrata

2013

Em um modelo ER, as entidades e os atributos representam a parte abstrata,


e os relacionamentos, a parte física.

errada

2016

Na modelagem de dados, o elemento que descreve as propriedades ou


características em entidades e relacionamentos denomina-se

a) cardinalidade.

b) conjunto de relacionamentos.

c) atributo.
36

d) requisito.

e) agregação.

As regras de associação são escritas em um formato se [algo acontecer],


então [algo acontecerá].

Uma regra de associação pode ser vista como uma expressão da forma X → Y,
onde há a relação dos valores de X e Y em um certo conjunto de valores (Ex:
{fralda} → {cerveja}).

Análise de probabilidades condicionais

Existem duas variações comuns de regras de associação:

padrões sequenciais e os padrões temporais.

REGRAS DE ASSOCIAÇÃO

 apresentam a forma de SE... ENTÃO (fator de suporte e fator de


confiança)
 possui ótimos resultados
 Não supervisionado (Não há intervenção humana)
 "o quanto determinado PRODUTO X, implica na compra de
um PRODUDO Y".
 método muito utilizado no "Carrinho de Compras"

ex: SE o cliente compra comida japonesa, ENTÃO leva vinho também.

A técnica de regras de associação visa descobrir o relacionamento ou


correlação entre variáveis de um banco de dados. Ex: Músicos que compram
uma nova guitarra tendem a comprar novas palhetas.

Padrões sequenciais-> Uma sequência de ações ou eventos é buscada.

Padrões temporais-> Semelhante a técnica de padrões sequenciais,


mas sempre envolve um fator temporal que permite diferenciá-los
37

Regras de associação são regras do tipo X->Y que indicam a probabilidade


de dois eventos ocorrerem em conjunto. O exemplo clássico é o dos clientes de
um supermercado que compram fraldas e também compram cervejas.

No MER, modelo entidade-relacionamento, não existe o conceito de chave


primária. Dá-se o nome de atributo chave. Só com isso já dava para responder
a questão.

Chave primária aparece no modelo lógico, no Modelo relacional.

Atributos

* Atributos são representados graficamente através


de círculos ou elipses conectadas por meio de uma linha sólida.

---
> atributos são usados para descrever as propriedades ou características d
e uma entidade ou relacionamento.

O start da modelagem se dá a partir das ENTIDADES. Uma entidade é uma


representação de um conjunto de informações sobre determinado conceito do
sistema. Toda entidade possui ATRIBUTOS, que são as informações que
referenciam a entidade.

Para exemplificar no sistema de controle de Biblioteca, partimos do conceito


principal que é o empréstimo de obras por usuários da biblioteca

https://www.devmedia.com.br/modelagem-de-dados-1-entidades/4140

Como funciona um banco de dados relacional?

R. é um tipo de banco de dados que armazena e fornece acesso a pontos


de dados relacionados entre si. Bancos de dados relacionais são baseados no
modelo relacional, uma maneira intuitiva e direta de representar dados em
tabelas.

R. Em um banco de dados relacional, os dados são armazenados em


tabelas (relação); e as tabelas, organizadas em colunas(atributos) e
linhas (tuplas) .
38

R. Falou em banco de dados relacional, lembre-se, logo de tabelas.

Copiando

Em um Banco de Dados Relacional, as denominações são as seguintes:

Tabela: RELAÇÃO

Linhas: TUPLAS

Colunas: ATRIBUTOS

Os Data Warehouses existem para facilitar consultas complexas,


intensivas em termos de dados, e ad-hoc frequentes.

CARACTERÍSTICA ESSENCIAIS: BIZU "HINO"

Histórico (variável ao longo do tempo)

Integrado

Não-volátil (não sofre alterações FREQUENTES);

Orientado por assunto

Os Data Warehouses (Armazém de Dados) focam na armazenagem dos dados


utilizados para gerar informações necessárias à tomada de decisões táticas e
estratégicas. A maioria dos dados de suporte a decisões baseiam-se em dados
históricos obtidos de bancos de dados operacionais. Além disso, o Data
Warehouse pode armazenar dados provenientes de muitas fontes. Para facilitar
a recuperação desses dados, a estrutura do data warehouse difere muito de
um banco operacional ou transacional.

Fonte: Patrícia Quintão

Data warehouse é um depósito de dados digitais que serve para armazenar


informações detalhadas relativamente a uma empresa, criando e organizando
relatórios através de históricos que são depois usados pela empresa para
ajudar a tomar decisões importantes com base nos fatos apresentados.

https://www.significados.com.br/data-warehouse/
39

Com relação a data mining e data warehouse, julgue o item que se segue.

Comparados aos bancos de dados transacionais, os data warehouses são


mais voláteis porque, para que se mantenham consistentes, são atualizados
em tempo real a cada atualização que ocorrer em qualquer uma das bases
originais de dados que o componham.

Data warehouse é um depósito de dadosdigitais que serve para armazenar


informações detalhadas relativamente a uma
empresa, criando e organizando relatórios através de históricos que são
depois usados pela empresa para ajudar a tomar decisões importantes com
base nos fatos apresentados.

O data warehouse serve para recolher informações de uma empresa para que
essa possa controlar melhor um determinado processo, disponibilizando uma
maior flexibilidade nas pesquisas e nas informações que necessitam.

Para além de manter um histórico de informações, o Data Warehousecria


padrões melhorando os dados analisados de todos os sistemas, corrigindo os
erros e restruturando os dados sem afetar o sistema de operação,
apresentando somente um modelo final e organizado para a análise.

A ARQUITETURA DE DATA WAREHOUSE

Existem três etapas no processo de um data warehouse, chamadas de ETL


(extração, transformação e carga).

(CESPE-DEPEN) Datamart é a denominação atribuída a um sistema


de dataware que atende a áreas específicas de negócios de organizações
e que representa um subconjunto lógico do datawarehouse. (C)

(FCC/11) Um Data Warehouse é um repositório de dados atuais e históricos


de uma organização que possibilita a análise de grande volume de dados para
suportar a tomada de decisões estratégicas. CERTA

As ferramentas OLAP (On-line Analytical Processing) são capazes de analisar


grandes volumes de dados, fornecendo diferentes perspectivas de visão e
auxiliando usuários na sintetização de informações.CERTA

(CESPE/2009) Data Warehouse é uma coleção de dados orientados ao


assunto, que tem como características visão conceitual multidimensional,
40

operações interdimensionais irrestritas, dimensões e níveis de agregação


ilimitados, sendo que os dados são não voláteis e variantes no tempo. CERTA

Prova: FEPESE - 2017 - CIASC - Analista de Informática e Suporte

Analise as afirmativas abaixo com relação ao Data Warehouse.

Um Data Warehouse é uma coleção de dados, orientado por assunto,


integrados, invariáveis no tempo e não voláteis, para suporte ao processo
gerencial de tomada de decisão. CERTA

CARACTERÍSTICA ESSENCIAIS: BIZU "HINO"

Histórico (variável ao longo do tempo)

Integrado

Não-volátil

Orientado por assunto

No ambiente de data warehouse a atualização de dados em uma arquitetura


controlada por destino ocorre quando o data warehouse envia periodicamente
solicitações por novos dados às fontes.

A atualização de um data warehouse é feita periodicamente, conforme a


necessidade, sendo que ela é feita normalmente de forma incremental, ou seja,
não são retiradas informações do data warehouse e sim acrescidos somente os
novos dados.

recebe informações de diferentes fontes, internas e externas..

Orientado por assunto: Refere-se aos sistemas transacionais organizados


em uma determinada aplicação de uma empresa

• ativar e fornecer suporte às atividades de business intelligence (BI),

• exclusivamente a realizar consultas e análises avançadas

• contêm grandes quantidades de dados históricos


41

Um banco de dados é uma coleção de dados que são organizados de forma


randômica ❌, sem significado implícito ❌e de tamanho variável ✅,
e projetados para atender a uma proposta específica ✅ de alta
complexidade, de acordo com o interesse dos usuários ✅.

Um banco de dados é uma coleção de dados com significado implícito.

Os dados não são organizados de forma aleatória (randômica). Apenas


juntar dados não forma um banco de dados. Os dados precisam estar
relacionados de forma lógica.

Os banco de dados possuem tamanhos variáveis (crescem ou diminuem


com o tempo).

Os bancos de dados atendem a um propósito específico (Buscam


modelar um problema específico do mundo real quando são construídos).
Exemplo: as compras e vendas de chocolates Alpino em um determinado
supermercado.

Por último, ele é desenvolvido para atender a necessidade (interesse) dos


usuários do banco de dados.

Gabarito errado. ❌

Um banco de dados é uma coleção de dados que são


organizados de forma coerente, com significado implícito e de
tamanho variável, e projetados para atender a uma proposta
específica de variável complexidade, de acordo com o
interesse dos usuários.

FONTE: Estratégia Concursos

Você também pode gostar