Please use this identifier to cite or link to this item: http://hdl.handle.net/10889/9912
Title: Algorithms and techniques for efficient data management in the Web
Other Titles: Αλγόριθμοι και τεχνικές αποδοτικής διαχείρισης δεδομένων στον Παγκόσμιο ιστό
Authors: Νοδαράκης, Νικόλαος
Keywords: Cloud computing
Distributed algorithms
Big data
Machine learning
Hadoop
MapReduce
Spark
Keywords (translated): Νέφος υπολογιστών
Κατανεμημένοι αλγόριθμοι
Δεδομένα μεγάλης κλίμακας
Μηχανική μάθηση
Abstract: The term of cloud computing refers to the usage of computational resources (on software and hardware level) that consist a unified service over a network, like internet. Cloud computing becomes more and more popular among data management and storage applications, because of its ability of handling extremely large amount of data (TB or even PB). Daily, new problems arise that require efficient and scalable solutions for monitoring, processing and storing big data volumes. The most popular and notably efficient tools are key-value stores, that allow unstructured data storage, and large-scale distributed processing systems, like MapReduce. In the context of this thesis, we focus on the proposing techniques that deal with computationally intensive problems. Many centralized approaches have been developed for these problems, but when the data size grows exponentially these algorithms stop being effective. They either fail to confront the problem or need an excessive amount of time to fulfill their goal. It is more than clear that there is an imperative need to turn to distributed and high-scalable solutions that run on a cluster of computers.
Abstract (translated): Ο όρος cloud computing (νέφος υπολογιστών) αναφέρεται στην χρήση υπολογιστικών πόρων (σε επίπεδο υλικού και λογισμικού) που λειτουργούν ως μία ενιαία υπηρεσία πάνω από ένα δίκτυο όπως είναι το internet. Τα νέφη υπολογιστών γίνονται ολοένα και πιο σημαντικά για εφαρμογές διαχείρισης και αποθήκευσης δεδομένων, λόγω της δυνατότητας που προσφέρουν για διαχείριση πολύ μεγάλων ποσοτήτων δεδομένων (TB ή και PB). Καθημερινά προκύπτουν νέα προβλήματα, που η λύση τους απαιτεί αποδοτικές και κλιμακώσιμες εφαρμογές για την επεξεργασία και αποθήκευση αυτού του τεράστιου όγκου πληροφορίας. Κομβικό σημείο σε αυτόν τον τομέα εφαρμογών κατέχουν τα key-value stores, που επιτρέπουν την αποθήκευση των δεδομένων χωρίς να υπάρχει κάποια συγκεκριμένη δομή, καθώς και συστήματα παράλληλης επεξεργασίας μεγάλης ποσότητας δεδομένων, όπως το MapReduce. Στόχος της διδακτορικής αυτής διατριβής είναι η μελέτη προβλημάτων και λύσεων που έχουν προταθεί παλιότερα για την διαχείριση μεγάλου όγκου δεδομένων στον παγκόσμιο ιστό και η δυνατότητα εφαρμογής τους σε περιβάλλοντα νεφών υπολογιστών καθώς η διερεύνηση πιθανών εναλλακτικών λύσεων που θα εκμεταλλεύονται στο έπακρο τις δυνατότητες που προσφέρουν τα συστήματα αυτά. Σκοπός επίσης, είναι η σύγκριση της απόδοσης των λύσεων και των αλγορίθμων που θα προταθούν με τις ήδη υπάρχουσες. Το σύστημα που θα χρησιμοποιηθεί για την υλοποίηση των αλγορίθμων είναι το Apache Hadoop, ένα σύστημα για κατανεμημένη επεξεργασία και παραγωγή μεγάλων συνόλων δεδομένων.
Appears in Collections:Τμήμα Μηχανικών Η/Υ και Πληροφορικής (ΔΔ)

Files in This Item:
File Description SizeFormat 
thesis.pdf3.24 MBAdobe PDFView/Open


This item is licensed under a Creative Commons License Creative Commons