Windows

Big Data 3 Vs - Koncepcje i modele

Big Data's Volume, Velocity, and Variety (3 Vs)

Big Data's Volume, Velocity, and Variety (3 Vs)

Spisu treści:

Anonim

Termin "dane" nie jest dla nas nowy. Jest to jedna z podstawowych rzeczy nauczanych przy wyborze technologii informatycznej i komputerów. Jeśli pamiętasz, dane są uważane za surową formę informacji. Choć już od dziesięcioleci, termin Big Data jest obecnie bardzo popularny. Jak widać z tego terminu, obciążeń i obciążeń danych, jest Big Data i może być przetwarzany na różne sposoby, przy użyciu różnych metod i narzędzi do uzyskania wymaganych informacji. W tym artykule mowa jest o koncepcjach Big Data, wykorzystujących 3 V wspomniane przez Douga Laneya, pioniera w dziedzinie hurtowni danych, który został zainicjowany w dziedzinie Infonomics (Information Economics).

Zanim przejdziesz dalej, możesz przeczytać nasze artykuły na temat Podstawy Big Data i Big Data Usage, aby zrozumieć istotę. Mogą dodać do tego postu dalsze wyjaśnienia koncepcji Big Data.

Big Data 3 Vs

Dane, w swojej ogromnej formie, zgromadzone za pomocą różnych środków, zostały wcześniej poprawnie umieszczone w różnych bazach danych i po pewnym czasie zostały zrzucone. Gdy pojawiła się koncepcja, że ​​im więcej danych, tym łatwiej się dowiedzieć - różne i istotne informacje - przy użyciu odpowiednich narzędzi firmy zaczęły przechowywać dane przez dłuższy czas. To tak, jak dodawanie nowych urządzeń pamięci masowej lub używanie chmury do przechowywania danych w dowolnej formie, w jakiej zostały zamówione: dokumenty, arkusze kalkulacyjne, bazy danych i HTML itp. Następnie jest ono ułożone w odpowiednie formaty za pomocą narzędzi zdolnych do przetwarzania olbrzymich fragmentów danych. Dane.

UWAGA: Zakres Big Data nie ogranicza się do danych, które zbierasz i przechowujesz w swoim lokalu i chmurze. Może zawierać dane z różnych innych źródeł, w tym między innymi z elementów publicznie dostępnych.

Model 3D dużych zbiorów oparty jest na następujących V:

  1. Wolumin: odnosi się do zarządzania przechowywaniem danych
  2. Prędkość: odnosi się do szybkości przetwarzania danych
  3. Odmiana: odnosi się do grupowania danych z różnych, pozornie niepowiązanych zestawów danych

W poniższych akapitach objaśniono modelowanie Big Data, omawiając szczegółowo każdy wymiar (każdy V).

A] Tom Big Data

Mówiąc o Big Data, można zrozumieć wielkość jako ogromną kolekcję surowych informacji. Chociaż to prawda, dotyczy to również kosztów przechowywania danych. Ważne dane mogą być przechowywane zarówno w lokalu, jak i w chmurze, przy czym ta druga opcja jest elastyczna. Ale czy musisz przechowywać wszystko i wszystko?

Zgodnie z białą księgą wydaną przez Meta Group, gdy ilość danych wzrasta, części danych zaczynają wyglądać niepotrzebnie. Ponadto stwierdza, że ​​należy zachować tylko tę ilość danych, którą przedsiębiorstwa zamierzają wykorzystać. Inne dane mogą zostać odrzucone lub jeśli firmy niechętnie rezygnują z "rzekomo nieistotnych danych", mogą być wyrzucane na nieużywane urządzenia komputerowe, a nawet na taśmy, aby firmy nie musiały płacić za przechowywanie takich danych.

Użyłem "rzekomo nieistotnych danych", ponieważ ja również uważam, że dane dowolnego typu mogą być wymagane przez jakąkolwiek firmę w przyszłości - prędzej czy później - i dlatego należy ją przechowywać przez dłuższy czas, zanim się zorientujesz, że dane są naprawdę nieważne. Osobiście zrzucam starsze dane na dyski twarde z poprzednich okresów, a czasami na dyski DVD. Główne komputery i pamięć masowa w chmurze zawierają dane, które uważam za ważne i wiem, że będę ich używać. Wśród tych danych znajduje się również jeden rodzaj danych, które mogą pojawić się na starym dysku po kilku latach. Powyższy przykład jest po prostu dla twojego zrozumienia. Nie będzie pasował do opisu Big Data, ponieważ ilość jest znacznie mniejsza w porównaniu do tego, co przedsiębiorstwa postrzegają jako Big Data.

B ] Prędkość w dużych danych

Szybkość przetwarzania danych jest ważnym czynnikiem kiedy mówimy o koncepcjach Big Data. Istnieje wiele stron internetowych, zwłaszcza e-commerce. Google przyznał już, że szybkość, z jaką ładuje się strona, ma kluczowe znaczenie dla lepszej pozycji w rankingu. Oprócz rankingów, prędkość zapewnia również komfort użytkownikom podczas zakupów. To samo dotyczy danych przetwarzanych w celu uzyskania innych informacji.

Mówiąc o prędkości, ważne jest, aby wiedzieć, że jest to po prostu wyższa przepustowość. Łączy łatwo dostępne dane z różnymi narzędziami do analizy. Łatwo dostępne dane to trochę pracy domowej, aby stworzyć struktury danych, które są łatwe do przetworzenia. Kolejny wymiar - Odmiana, rozjaśnia to.

C] Różnorodność dużych zbiorów danych

Gdy jest mnóstwo ładunków i danych, ważne jest, aby je uporządkować w taki sposób, aby narzędzia do analizy mogły z łatwością przetwarzać dane. dane. Istnieją również narzędzia do organizowania danych. Podczas przechowywania dane mogą być pozbawione struktury i dowolnej postaci. Od Ciebie zależy, czy masz powiązania z innymi danymi. Po ustaleniu relacji można wybrać odpowiednie narzędzia i przekonwertować dane na żądaną formę dla uporządkowanej i posortowanej pamięci.

Podsumowanie

Innymi słowy, model 3D Big Data opiera się na trzech wymiarach: Dane USABLE które posiadasz; właściwe oznaczanie danych; i szybsze przetwarzanie. Jeśli te trzy są objęte opieką, twoje dane mogą być łatwo przetworzone lub przeanalizowane, aby dowiedzieć się, co chcesz.

Powyższe wyjaśnia zarówno koncepcje, jak i model 3D Big Data. Artykuły powiązane w drugim akapicie będą dodatkowym wsparciem, jeśli dopiero zaczynasz tę koncepcję.

Jeśli chcesz coś dodać, skomentuj.