Teme propuse colaboratorilor


S1. Platforma pentru administrarea rezultatelor cercetatorilor

Platforma CRESCDI (https://crescdi.pub.ro/) are rolul de a ajuta la administrarea rezultatelor de cercetare a membrilor UPB. Aceasta colecteaza diverse date (deja existente) ce caracterizeaza activitatea unui cercetator: publicatii stiintifice, brevete, proiecte de cercetare, etc. Temele din aceasta sectiune se refera la extinderea platformei cu diverse componente aditionale.


T1.1: Analiza de competente stiintifice

Coordonatori: Ciprian Dobre, Gabi Gutu

Numar studenti: 1-2

Tema propune dezvoltarea unui algoritm de analiza a datelor si extragere automata a domeniilor de competenta (domeniile pe care publica). La intrare se dau titlurile si abstractul diverselor publicatii ale persoanei, si se doreste constructia unui algoritm pentru identificarea cuvintelor cheie ce definesc ariile de expertiza. Pornind de aici, se doreste identificarea domeniilor pe care persoana in cauza exceleaza (ex., Computer Science, sau Mathematics, etc.). Optional, se va gandi un algorithm pentru crearea unor harti de colaborare, pentru a putea identifica clustere de autori si/sau cercetatori avand interese similare.


T1.2: Vizualizare de competente stiintifice

Coordonator: Ciprian Dobre

Numar studenti: 1-2

In relatie cu tema “Analiza de competente stiintifice”, se doreste dezvoltarea de componente Web (preferabil React) pentru vizualizarea agregata a rezultatelor stiintifice. Se porneste de la reteaua de colaborare si cuvintele cheie (respectiv domeniile pe care autorii publica), si se doreste crearea unor reprezentari agregate precum:


T1.3: Profilul stiintific al doctorandului si al conducatorului de doctorat

Coordonatori: Florin Pop, Bogdan-Costel Mocanu

Numar studenti: 1-2


T1.4: Corectie de date

Coordonator: Ciprian Dobre

Numar studenti: 3-4

In platforma CRESCDI, avem o serie de date, de la publicatii ale cadrelor didactice, proiecte in care au colaborat, pana la diverse activitati cu studentii. Toate aceste date pot fi analizate pentru: 1) o curatare automata, si 2) extragerea unor informatii de interes. Subiectul temei poate merge in oricare dintre cele doua directii. De exemplu, curatarea de date presupune implementarea unor algoritmi de verificare a datelor de intrare: dacă un articol este adus si din sursa X (de exemplu, Google Scholar) si din sursa Y (de exemplu, Scopus), si e vorba de acelasi autor si aceeasi conferinta, daca titlurile aduse se potrivesc 70-80% e clar ca este unul si acelasi articol si se va adauga o singura data in baza de data. Sau, vom adauga un camp in interfata de administrare prin care sa putem specifica dinamic un nomenclator de termeni, sa putem sa precizam manual cumva ca University Politehnica of Bucharest este acelasi string cu Politehnica University of Bucharest (ambele sunt intalnite ca afiliere a autorilor din UPB, dar reprezinta una si aceeasi institutie, nu ar trebui sa fie adaugata de mai multe ori).


T1.5: Catalog electronic cuprinzand oferta de tehnologii protejate prin DPI

Coordonatori: Ciprian Dobre, Silviu Pantelimon

Numar studenti: 1-2

Tema propune realizarea unui catalog al ofertei de tehnologii si servicii disponibile la nivelul UPB. La intrare se vor realiza o serie de formulare (date) prin intermediul carora colective de cercetatori (autentificati) vor putea adauga tehnologii (de exemplu realizate in UPB in diverse proiecte de cercetare) si pe care ar dori sa le prezinte publicului. Platforma va permite cautari peste cuvinte cheie / metadate, si reprezentanti (inclusiv o harta a campului UPB cu locatiile diverselor tehnologii ofertate) sau date de contact (cu cine se ia legatura pentru o anumita solutie).


S2. Sisteme de calcul cloud/edge si aplicatii distribuite, inclusiv Big Data

Odata cu proliferarea sistemelor de calcul neconventionale, sistemele de calcul de tip cloud/edge sunt folosite pe scara larga in rezolvarea problemelor de stocare si procesare de date in contexte diferite si cu cerinte variate. Modelarea si analiza performantelor sunt elementele cheie pentru aceste sisteme, analiza experimentala pe cazuri reale dar si simulate oferind de asemenea un mod de validare. Aplicatiile care au la baza aceste sisteme, inclusive aplicatiile Big Data, sunt supuse provocarilor de consistenta de date, offloading, procesare distribuita, persistenta, toleranta la defecte, constrangeri diferite de executie (timp, resurse, energie).


T2.1: Analiza performantelor aplicatiilor compuse din microservicii in edge computing

Coordonatori: Ion-Dorinel Filip, Florin Pop

Numar studenti: 1-2

In acest proiect, propunem studentilor interesati de sistemele distribuite bazate pe tehnologii edge computing o analiza a felului in care acestea pot fi realizate si interopereaza atunci cand sunt descrise ca microservicii. Pe langa o analiza critica si realizarea unui model matematic extins care sa expuna oportunitatile de analiza a performantelor aplicatiilor compuse din microservicii in sistemele edge computing, propunem dezvoltarea/extinderea unei aplicatii sau a unui simulator de scenarii cloud/edge care sa permita evaluarea cat mai extensiva si mai corecta a performantelor unui astfel de sistem, atat pentru teste sintetice (in dezvoltarea carora se pot surprinde atat trasaturi modelate matematic/probabilistic, cat si bazate pe trace-uri reale ale unor aplicatii cloud), cat si pentru cazuri de utilizare concrete (ce pot fi alese de catre student). Ca un punct de start, va recomandam sa cititi acest articol.


T2.2: Balansarea disponibilitatii si costurilor intr-un sistem cloud cu preturi variabile

Coordonator: Florin Pop

Numar studenti: 1-2

Costurile dinamice ale sistemelor Cloud, cum ar fi Amazon’s Spot Instances, au preturi care variaza in functie de cerere. Acest lucru ar putea provoca o volatilitate ridicata a preturilor, ceea ce duce la intreruperea executiei mai des decat se poate astepta. Scopul acestui proiect este de a dezvolta un planificator care poate satisface anumite capacitati de resurse (de exemplu, memorie si procesor) pentru joburile noastre cu o probabilitate specifica, astfel incat acestea sa fie neintrerupte din executie pentru urmatoarea perioada de timp (de exemplu, o zi). Fiecare sistem cloud este alcatuit din mai multe piete definite in functie de locatie si tipul de resursa. Fiecare job poate fi mutat de la o locatie la alta prin pornirea si oprirea sa. O aplicatie tipica ce ar beneficia de aceasta poate fi una map-reduce sensibila la timp, in cazul in care, daca un nod este oprit, se aplica o penalizare pentru restabilirea starii sale de pe disc (atat ca timp cat si ca latime de banda). Prin mutarea dinamica a instantelor catre piete mai sigure (care ar putea costa mai mult), costul job-urilor Big Data poate fi redus, prin urmare se realizeaza un compromis intre cost si disponibilitate. Se pot efectua executari suplimentare pentru joburi care sunt legate de o anumita locatie prin ajustarea dinamica a timpului instantaneu la volatilitatea pietei pentru a reduce pierderile de executie sau prin duplicarea locurilor de executie pe diferite piete pentru a preveni pierderea disponibilitatii.


T2.3: Pure Nash equilibrium and bin-packing scheduling optimization

Coordonatori: Florin Pop, Ion-Dorinel Filip

Numar studenti: 1-2

Problema planificarii in sisteme distribuite este una NP-hard, de aceea algoritmii de optimizare (multi-criteriala si multi-obiectiv) fac de cele mai multe ori apel la algoritmi de aproximare. Proiectul isi propune analiza modelelor de optimizare a planificarii unui set mare de task-uri (de exemplu procesare video) si considerarea unui model de echilibre Nash pentru aceasta problema. Pentru validare, vom folosi tehnici formale si simulatoare de sisteme distribuite (CloudSim, simulatoare de P2P).


T2.4: Alocarea de resurse edge cu constrangeri de consum de energie

Coordonator: Florin Pop, Bogdan-Costel Mocanu

Numar studenti: 1-2

Tema proiectului este investigarea si propunerea unor metode de alocare a resurselor (masini virtuale, noduri fog, dispozitive edge ca Raspberry Pi) si planificarea aplicatiilor intr-un sistem cloud/fog/edge, considerand drept constrangeri consumul minim (sau unul impus) de energie. Se va porni de la modelele existente si se vor analiza posibilitati de extindere tinand cont de noi metrici de optimizare precum energia consumata per unitate de procesare sau per masina virtuala. De exemplu, pentru un datacenter, se vor considera solutii de replicare a masinilor virtuale, iar pentru nodurile fog/edge, offloading-ul de aplicatii. Se vor investiga modele matematice existente pentru consumul de energie. Se vor considera urmatoarele: definirea problemelor de optimizare, identificarea unor limite admisibile (inferioare si superioare), algoritmi de aproximare, simularea modelelor propuse.


T2.5: Analiza performantelor sistemelor cloud/edge folosind cozi M/M/k/k si M/M/∞/k

Coordonatori: Florin Pop, Ion-Dorinel Filip

Numar studenti: 1-2

Teoria cozilor reprezinta un instrument de modelare si analiza a performantelor, precum si pentru optimizarea sistemelor de calcul. Proiectul propus este unul teoretic si are ca scop definirea unui model pentru sistemele cloud/edge folosind lanturi Markov continue, modelul fiind unul general (Jackson Network of Queues), adaptarea acestuia, definirea metricilor de evaluare a performantelor, precum si a situatiilor limita. Proiectul presupune cunoasterea de baza a limbajului Matlab pentru modelarea sistemelor de ecuatii liniare.


T2.6: Serviciu de stocare pentru edge computing

Coordonatori: Florin Pop, Catalin Negru

Numar studenti: 1-2

Edge computing este un model de calcul care isi propune procesarea datelor in apropierea surselor de date. Acest proiect isi propune sa creeze un serviciu de stocare pentru aplicatiile de tipe edge computing. Nevoia unui serviciu de stocare destinat acestui tip de aplicatii vine din urma faptului ca acestea au cerinte si caracteristici speciale, cum ar fi latenta scazuta, localitatea datelor sau geo-referentiere, si lucreaza in principal cu date spatio-temporale. Proiectul va fi dezvoltat pe dispozitive Raspberry Pi care vor juca rolul unor dispozitive Set-Top Box din modelul edge computing.


T2.7: Procesare si invatare distribuita in sisteme cloud/edge

Coordonator: Florin Pop

Numar studenti: 1-2

Desi procesarea in flux a datelor devine din ce in ce mai populara, exista o lipsa de suport in ceea ce priveste cerintele sale in timp real in medii eterogene distribuite geografic (cum ar fi cloud-urile). Mai mult, exista o lipsa de intelegere a relatiei dintre planificarea in timp real si cerintele analitice de procesare si alte valori importante, cum ar fi calitatea datelor, dimensiunea stocarii si costurile de procesare in spatiul de optimizare multi-obiectiv al diverselor infrastructuri federate de astazi pentru aplicatii Big Data. Vom investiga proiectarea unei platforme pentru procesarea in timp real a seturilor de date folosind un set de algoritmi de planificare dedicati combinati cu tehnici adaptive de alocare a resurselor. Euristicile de planificare determina ce sarcina de procesare a datelor sa se execute in fiecare moment, in timp ce tehnicile de alocare a resurselor decid ce resurse (cloud sau edge) sa se furnizeze automat. Ambele componente vor utiliza un cadru de optimizare multi-obiectiv simultan pentru o serie de obiective conflictuale, cum ar fi timpul de procesare, costurile de calcul, spatiul de stocare si calitatea datelor. Optimizarea va dezvalui un set de solutii de planificare si alocare a resurselor, exploatate pentru a indeplini constrangerile in timp real ca raspuns la variabilitatea incarcarii din sursele de date dinamice si solicitarile utilizatorilor.


T2.8: Planificare inteligenta si adaptiva

Coordonatori: Florin Pop, Bogdan-Costel Mocanu

Numar studenti: 1-2

Cercetarile existente in optimizarea algoritmilor de planificare sunt in mare parte limitate la doua obiective si utilizeaza metode a-priori care nu se apropie de frontiera Pareto (un set de solutii pentru o problema de optimizare cu mai multe criterii, reprezentand compromisuri intre obiective), dar au ca scop gasirea unei singure solutii de compromis prin agregare sau planificare constransa. Mai mult, majoritatea lucrarilor existente vizeaza planificarea aplicatiilor catre resurse si nu vizeaza procesarea in timp real a datelor intr-o infrastructura cloud distribuita. Din cate stim, nu exista lucrari care sa aiba ca scop extinderea euristicii planificarii in timp real pentru a aproxima setul complet de solutii de compromis intr-un spatiu cu patru dimensiuni care cuprinde timp de procesare in timp real in combinatie cu costurile de stocare si procesare, precum si calitatea datelor ca o masura speciala QoS (calitatea serviciului). Proiectul nostru va fi prima abordare cu adevarat multi-obiectiva capabila sa optimizeze setul de solutii de compromis in ceea ce priveste procesarea in timp real in sistemele cloud si sa implice patru obiective contradictorii: timpul, costul, stocarea si calitatea datelor. Vom extinde modelul de planificare pentru a sprijini diferite scenarii pentru diferite tipuri de aplicatii: NLP (procesarea limbajului natural), rutare auto, interactiuni sociale online, etc.


T2.9: Stocarea si analiza de date provenite de la o platforma de tip IoT

Coordonatori: Florin Pop, Ion-Dorinel Filip

Numar studenti: 1-2

Datele provenite de la senzori conectati la Internet (IoT) prezinta un pattern deosebit, iar problema stocarii si analizei acestora este, de cele mai multe ori, asociata conceptului de Big Data, atat datorita fluxului mare de date, cat si a necesitatii analizarii datelor conform unor modele cu cerinte deosebite (real-time sau streamline processing). Proiectul isi propune realizarea, sub forma unei suite de microservicii, a unei platforme integrate pentru conectarea dispozitivelor IoT, cat si pentru stocarea si analiza datelor. Ca parte a realizarii proiectului, se vor defini cerintele functionale si nefunctionale ale unei astfel de platforme, se vor defini primitivele de formatare si clasificare a datelor, precum si mecanismele de autentificare si securitate asociate, pe baza solutiilor existente (protocoale si componente software open-source sau freeware). Pentru realizarea proiectului, sunt sugerate studiul si utilizarea mai multor tehnologii precum Docker, baze de date de tip time-series (precum InfluxDB, Graphite sau OpenTSDB), protocoale lighweight pentru mesaje (ca MQTT), precum si platforme pentru vizualizarea si analiza seriilor temporale de date (precum Grafana).


T2.10: Contracte inteligente pentru planificarea si gestiunea resurselor

Coordonatori: Florin Pop, Liviu Hartan

Numar studenti: 1-2

Tehnologia bazelor de date distribuite (Distributed Ledger Technology – DLT) este un sistem in care aceeasi baza de date este distribuita unui set de dispozitive numite noduri. Fiecare dintre aceste noduri stocheaza si actualizeaza acelasi registru sau baza de date, in functie de modificarile din retea. Specific acestei tehnologii este faptul ca nu exista o autoritate centralizata, astfel incat fiecare nod poate actualiza baza de date si celelalte verifica integritatea. Un exemplu este contractul inteligent, un program conceput pentru a facilita, verifica sau aplica negocierea sau executarea unui contract. Contractele inteligente permit executarea tranzactiilor de catre terti intr-un sistem de executie de aplicatii si gestiune a resurselor. Aceste tranzactii sunt publice si ireversibile. Printre tehnologiile bazate pe blockchain care permit implementarea contractelor inteligente, putem enumera Bitcoin, Ethereum, Burstcoin si Quora. Avantajele unui contract inteligent includ minimizarea riscului ca celalalt membru al tranzactiei sa nu isi indeplineasca promisiunea, sa reduca timpul de tranzactionare si sa creasca transparenta. Ne propunem sa studiem problema planificarii aplicatiilor si gestionarii resurselor guvernate de contracte inteligente.


T2.11: Interconectarea centrelor de date

Coordonatori: Florin Pop, Alexandru-Ionut Mustata

Numar studenti: 1-2

Centrele de date (datacenters) stau la baza sistemelor cloud. Din ce in ce mai multe modele de stocare si prelucrare de date au trecut in modul mobil (colectand date si procesandu-le in timp real). Conectivitatea este o proprietate importanta, asigurand consistenta si disponibilitatea datelor. In contextul mobilitatii, consumul de energei este important, asigurand disponibilitatea datelor si nodurilor de procesare. Ne propunem un studiu al topologiilor de interconectare a diferitelor centre de date, identificarea unor avantaje si dezavantaje, studiul unor functii de consum de energie. Identificarea unor topologii logice care sa tina cont de tehnologiile existente si de constrangerile din sistem pot ajuta la stabilirea unor decizii de proiectare.


T2.12: Optimizarea consumului de energie in sisteme cloud/edge

Coordonatori: Florin Pop, Alexandru-Ionut Mustata

Numar studenti: 1-2

Un consum eficient de energie poate fi privit ca o problema de optimizare consiferand un set de constrangeri (capacitatea de procesare, de stocare, latimea de banda, ratele de transfer, starea legaturilor in retea). In aceasta descriere, ne propunem sa minimizam functii care modeleaza consumul de energie in functie de diferite criterii si combinatii intre acestea. Optimizarea devine mai interesanta atunci cand consideram sistemele slab cuplate, cum sunt cele de tipul edge computing, care sunt conectate cu sistemele de tip cloud. Modelele liniare de optimizare a consumului energetic nu scot intotdeauna in evidenta modelele reale, dar ne dorim sa evaluam acuratetea acestora. Ne propunem sa definim si sa analizam problema de optimizare incepand cu un criteriu, apoi combinand cu mai multe, aducand si constrangeri de diverse tipuri in calcul.


T2.13: Mecanisme de incredere si reputatie pentru sisteme edge

Coordonatori: Bogdan-Costel Mocanu, Florin Pop

Numar studenti: 1-2

Din cauza caracterului deschis al sistemelor edge, credibilitatea nodurilor poate fi contestata. Acestea pot fi noduri malitioase sau noduri infectate care distribuie informatii eronate si pot compromite la randul lor alte noduri. O modalitate de adresare a acestui dezavantaj poate fi utilizarea unei arhitecturi in care fiecare nod al sistemului poate fi la un moment dat corupt sau malitios (Zero Trust Architecture). Ne propunem studierea aprofundata a mecanismelor existente pentru stabilirea increderii si reputatiei nodurilor (de exemplu, EigenTrust, PeerTrust, etc), urmand testarea acestor mecanisme in medii de lucru simulate (precum TRM-SimWSN). Ulterior, ne propunem sa identificam scenarii reale de lucru ale acestor mecanisme de incredere si reputatie si testarea lor prin introducerea unor constrangeri sau relaxari in functie de scenariul propus.


T2.14: Analiza performantelor metodelor numerice pentru functii

Coordonator: Florin Pop

Numar studenti: 1-2

Proiectul isi propune analiza performantelor unor metode numerice cunoscute pentru functii (interpolari, integrari numerice, aproximari FFT, etc.) cu scopul identificarii unor aspecte legate de convergenta si stabilitate numerica si, pe baza rezultatelor obtinute, propunerea unor metode numerice noi. De exemplu, pentru interpolare sau integrare numerica, putem dubla in rafala punctele folosite ca suport. Se are in vedere un set de functii continue/discrete specifice, folosite adesea in evaluarile numerice. Doua exemple de aplicatii vor considera: analiza fluxurilor audio (de exemplu cate persoane vorbesc in camera si cine in ce interval de timp); analiza imaginilor (aplicarea diverselor filtre cu scopul de restaurare a imaginilor vechi). Proiectul va necesita utilizarea Python/Octave pentru implementare si testare.


T2.15: Analiza performantelor metodelor de planificare in cazul sarcinilor de lucru cu dependente de tip DAG (graf orientat aciclic) / framework de simulare pentru algoritmi de planificare

Coordonatori: Alexandru-Ionut Mustata, Florin Pop

Numar studenti: 1-2

Proiectul isi propune studierea si implementarea metodelor existente de planificare pentru a analiza performanta acestora pe grafuri cu dependente de tip DAG (graf orientat aciclic). Proiectul poate fi privit ca un framework de planificare de sarcini de lucru, deoarece este necesara implementarea unei interfete web de control in care utilizatorul isi va putea defini probleme de planificare (grafuri de sarcini de lucru), va putea selecta algoritmi de planificare care sa fie utilizati pentru a rezolva problema, si se vor putea vedea comparatii utilizand rezultatele anterioare (rezultatele vor fi salvate intr-o baza de date sub forma de tuplu [input_problema, algoritm, rezultat]). Pentru comparatie, se vor crea grafice comparative in functie de diferite criterii (makespan, numarul de task-uri finalizate fara penalitati sau pana la atingerea timpului limita, etc.).


T2.16: Portofoliu cu instrumente de procesare imagini satelitare folosind Jupyter Notebooks

Coordonator: Florin Pop

Numar studenti: 2-3

Imaginile satelitare ne ofera informatii (chiar daca nu in timp real) cu privire la mediul inconjurator si la diferite aspecte ale mediului in care traim. In acest proiect, propunem studentilor familiarizarea cu produsele de tip imagine satelitara, in vederea obtinerii unui set de instrumente/procesari semi-automate, destinate publicului specializat, care sa ofere un punct de pornire in valorificarea eficienta a setului de date satelitare disponibile (Landsat, Copernicus), cat si in alte surse similare la care avem acces. Pentru realizarea acestui portofoliu, propunem prezentarea lui sub forma unui set de aplicatii Python, prezentate publicului prin intermediul Jupyter Notebooks. Exemple de instrumente de procesare include: calculul NDVI/NDWI pentru analiza starii vegetatiei, calculul mastii de padure/vegetatie/apa, catalogarea tipurilor de sol, detectia schimbarilor intr-un set de date, clusterizarea de imagini satelitare, aplicatii din agricultura si multe altele. Desigur, propunerile voastre sunt binevenit si le vom analiza impreuna.

T2.17: Administrarea workflow-urilor de microservicii pentru platforme Cloud/Edge

Coordonatori: Catalin Negru, Florin Pop

Numar studenti: 1-2

Noile tendinte in procesarea distribuita presupun plasarea resurselor (stocare si procesare) la marginea retelelor (Edge) aproape de sursa datelor. De asemenea, aplicatiile monolit traditionale care ruleaza pe platformele Cloud sunt descompuse in microservicii care au un caracter atomic, sunt izolate si ruleaza in containere, aducand noi provocari de cercetare, cat si oportunitati de optimizare a resurselor pentru o mare varietate de aplicatii, incluzand cele cu termen limita de rulare / SLA, precum streaming video, invatare automata pentru aplicatii complexe in timp real si multe alte prelucrari de calcul intensiv care pot fi descarcate in Cloud. In aceste conditii, sistemele de gestionare a resurselor necesita noi modele pentru (1) orchestrare si planificare de microservicii folosind metode avansate de planificare; (2) folosirea eficienta a resurselor eterogene de calcul Cloud-Edge.

T2.18: Platforma distribuita pentru coordonare si negociere intre agenti

Coordonatori: Catalin Negru, Florin Pop

Numar studenti: 1-2

Coordonarea distribuita reprezinta actul de gestionare a interdependentelor dintre functii si activitati desfasurate pentru atingerea scopurilor intr-un sistem distribuit. Urmatoarele mecanisme pot fi aplicate pentru coordonarea dependentelor dintre functii si activitati: Supravegherea Directa, Standardizarea Muncii, Standardizarea Rezultatelor, Standardizarea Competentelor si Ajustarea Reciproca. Proiectul isi propune implementarea unei platforme distribuite care sa aplice unul din mecanismele mentionate pentru coordonarea activitatilor. De asemenea, va urmari sa implementeze si mecanisme de negociere intre agenti pentru a rezolva o problema comuna.


S3. Aplicatii inteligente

Aceasta sectiune propune implementarea de aplicatii inteligente folosind Python si biblioteci specifice de ML si NLP.


T3.1: Network-aware harmful content mitigation on social media

Coordonatori: Ciprian-Octavian Truica, Elena-Simona Apostol

Numar studenti: 1-2

Harmful content consists of different types of textual data (e.g., hate speech, misinformation, fake news) that  causes a person distress or harm, having a negative impact on the individual mental health, with even more detrimental effects on the psychology of kids and teenagers. This topic aims to design and implement new Network Analysis and Graph Mining models and strategies for mitigating the spread of harmful content on social media using information extracted from the diffusion medium. Implementation language: Python. Libraries: Scikit-learn, PyTorch, Keras with Tensorflow, etc. Storage and distribution technologies: MongoDB, Spark, Hadoop Ecosystem, etc.


T3.2: Network-aware fake news mitigation on social media

Coordonatori: Ciprian-Octavian Truica, Elena-Simona Apostol

Numar studenti: 1-2

Fake news consists of news that is intentionally and verifiably false, and which could mislead readers by presenting alleged, imaginary facts about social, economic and political subjects of interest. This topic aims to design and implement new Network Analysis and Graph Mining models and strategies for mitigating the spread of fake news on social media using information extracted from the diffusion medium. Implementation language: Python. Libraries: Scikit-learn, PyTorch, Keras with Tensorflow, etc. Storage and distribution technologies: MongoDB, Spark, Hadoop Ecosystem.


T3.3: Context and network-aware fake news detection and mitigation

Coordonator:i Ciprian-Octavian Truica, Elena-Simona Apostol

Numar studenti: 1-2

Fake news consists of news that is intentionally and verifiably false, and which could mislead readers by presenting alleged, imaginary facts about social, economic and political subjects of interest. This topic aims to design new Natural Language Processing, Machine Learning, Deep Learning, Network Analysis, and Graph Mining models, techniques, and strategies that use context and network information for mitigating the spread of fake news on social networks. Implementation language: Python. Libraries: Scikit-learn, PyTorch, Keras with Tensorflow, etc. Storage and distribution technologies: MongoDB, Spark.


T3.4: Aspect-based sentiment analysis for online reviews

Coordonatori: Ciprian-Octavian Truica, Elena-Simona Apostol

Numar studenti: 1-2

Aspect-based sentiment analysis (ABSA) is the task of identifying coarse-grained or fine-grained opinion polarity towards a specific aspect associated with a given target. Thus, the main objective of ABSA is to identify the entity E and attribute A pairs towards which an opinion is expressed in each sentence and determine the opinion’s polarity. This research topic aims to design new Natural Language Processing, Machine Learning, and Deep Learning techniques in order to determine accurately the fine-grained opinion polarity from online reviews. Implementation language: Python. Libraries: Scikit-learn, PyTorch, Keras with Tensorflow, etc. Storage and distribution technologies: MongoDB, Spark, Hadoop Ecosystem, etc.


T3.5: Text simplification

Coordonatori: Ciprian-Octavian Truica, Elena-Simona Apostol

Numar studenti: 1-2

Text Simplification is the process of reducing the linguistic complexity of a text, while retaining the original information content and meaning. This topic aims to design new Natural Language Processing, Machine Learning, and Deep Learning models and techniques that successfully manage to simplify textual content. Implementation language: Python. Libraries: Scikit-learn, PyTorch, Keras with Tensorflow, etc. Storage and distribution technologies: MongoDB, Spark, Hadoop Ecosystem, etc.


T3.6: Text summarization

Coordonatori: Ciprian-Octavian Truica, Elena-Simona Apostol

Numar studenti: 1

Text Summarization is the process of extracting a summary of a text while conveying to the reader the most important points of information contained within the text. Currently, there are multiple two main approaches for Text Summarization: extractive and abstractive. Extractive summarization employs different techniques for ranking the textual content, while abstractive uses generative neural models for creating summaries. This project aims to design new Natural Language Processing, Machine Learning, and Deep Learning models and techniques that successfully manage to summarize textual content. Implementation language: Python. Libraries: Scikit-learn, PyTorch, Keras with Tensorflow, etc. Storage and distribution technologies: MongoDB, Spark, Hadoop Ecosystem, etc.


T3.7: Domain-specific multi-word extraction and abbreviation disambiguation for e-health

Coordonatori: Ciprian-Octavian Truica, Elena-Simona Apostol

Numar studenti: 1-2

Hospitals collect huge amounts of data about their patients every year, in various ways. Such massive sets of data can provide great knowledge and information which can improve the medical services, and overall the healthcare domain, such as disease prediction by analyzing the patient’s symptoms or disease prevention, by facilitating the discovery of behavioral factors that can turn into risk factors for disease. Unfortunately, only a relatively small volume of e-Health data is processed and interpreted, an important factor being the difficulty in efficiently performing Big Data operations, and that often this data, even if anonymous, is hard to obtain. This topic aims to design and implement new Natural Language Processing, Machine Learning, and Deep Learning methods and models for disambiguating abbreviations and extracting domain-specific multi-words to better understand medical documents and correlate medical terms with their meaning. Implementation language: Python. Libraries: Scikit-learn, PyTorch, Keras with Tensorflow, etc. Storage and distribution technologies: MongoDB, Spark, Hadoop Ecosystem.


T3.8: Anomaly detection for time series

Coordonatori: Ciprian-Octavian Truica, Elena-Simona Apostol

Numar studenti: 1-2

An outlier or an anomaly is a data point that significantly differs from other observations in a Time Series. Outliers can appear due to an experimental error or an anomaly in the measurement. Such suspicious points in the Time Series data must be identified and interpreted separately in order not to interfere with the analysis step and lead to wrong conclusions. The aim of this research topic is to develop new Anomaly Detection models and techniques using Statistics, Machine Learning and Deep Learning. Implementation language: Python. Libraries: Scikit-learn, PyTorch, Keras with Tensorflow, etc. Storage and distribution technologies: MongoDB, Spark, Hadoop Ecosystem.


T3.9: Change point detection for time series

Coordonatori: Ciprian-Octavian Truica, Elena-Simona Apostol

Numar studenti: 1-2

The problem of change point detection in Time Series data deals with finding the point in time when the properties (e.g., mean, variance, etc.) of the Time Series change abruptly. Thus, a change point is a transition point between different states or continuous segments in the Time Series data. The aim of this research topic is to develop new Change Point Detection models and techniques using Statistics, Machine Learning and Deep Learning. Implementation language: Python. Libraries: Scikit-learn, PyTorch, Keras with Tensorflow, etc. Storage and distribution technologies: MongoDB, Spark, Hadoop Ecosystem.


T3.10: Enhancing scientific collaborations

Coordonatori: Ciprian-Octavian Truica, Elena-Simona Apostol

Numar studenti: 1

Scientific output has grown exponentially in the last few years. As the number of papers has risen, there is a need to design new algorithms that integrate both graph structure and textual content to automatically analyze the scientific output and propose new work collaborations. This project aims to design 1) new Natural Language Processing, Machine Learning, and Deep Learning techniques for analyzing the scientific papers’ textual content, and 2) new Graph Mining techniques for proposing new collaborations for scientists. Implementation language: Python. Libraries: Scikit-learn, PyTorch, Keras with Tensorflow, etc. Storage and distribution technologies: MongoDB, Spark, Hadoop Ecosystem.


T3.11: Semantic change detection

Coordonatori: Ciprian-Octavian Truica, Elena-Simona Apostol

Numar studenti: 1-2

Semantic Change deals with the evolution of language over time. The main objective is to determine any changes that appear in historical data in the meaning of words. This research topic aims to design new Natural Language Processing, Machine Learning, and Deep Learning techniques based on word and transformer embeddings in order to determine accurately diachronic information. Implementation language: Python. Libraries: Scikit-learn, PyTorch, Keras with Tensorflow, etc. Storage and distribution technologies: MongoDB, Spark, Hadoop Ecosystem, etc.


T3.12: AI-based conversational agents for claim verification

Coordonatori: Ciprian-Octavian Truica, Elena-Simona Apostol

Numar studenti: 1

On social media, users use different claims to inform or even influence their followers. Sometimes, these claims present information that might be partially true or false. The aim of this project is to design an AI-based conversational agent (ChatBot) to verify the veracity of claims. Implementation language: Python. Libraries: RASA-NLU, Scikit-learn, PyTorch, Keras with Tensorflow, etc. Storage and distribution technologies: MongoDB, Spark, Hadoop Ecosystem, etc.


S4. IoT si AAL

Temele din aceasta categorie fac parte din domeniile Internet of Things si Ambient Assisted Living.


T4.1: Acces open la date IoT

Coordonatori: Ciprian Dobre, Dorinel Filip

Numar studenti: 1

Avem in prezent instalati diversi senzori in cadrul facultatii: senzori ambientali (ce preiau date despre temperatura, presiune, umiditate, etc), de tip people counter, senzori de parcare (montati in parcarea PRECIS), senzori de gunoi (vedeti pubelele din fata PRECIS), senzori de tip smart agriculture, etc. Toti acesti senzori dau date ce sunt colectate (peste LoRA) intr-un InfluxDB si o platforma Grafana. Ne intereseaza dezvotarea de REST API peste date prin care sa permitem un acces deschis, pe baza de credentiale (integrare cu login.upb), la datele colectate. Scopul e sa permitem diverselor colective de cercetatori din UPB sa vizualizeze si sa lucreze cu datele colectate si furnizate. Cererile vor avea diverse filtre (gen perioada de timp) sau paginare si altele.


T4.2: Monitorizarea de cladiri inteligente

Coordonator: Ciprian Dobre

Numar studenti: 1-2

Avem in prezent instalati diversi senzori in cadrul facultatii: senzori ambientali (ce preiau date despre temperatura, presiune, umiditate, etc), de tip people counter, senzori de parcare (montati în parcarea PRECIS), senzori de gunoi (vedeti pubelele din fata PRECIS), senzori de tip smart agriculture, etc. Toti acesti senzori dau date ce sunt colectate (peste LoRA) intr-un InfluxDB si o platforma Grafana. Ne interesează dezvotarea unor solutii de vizualizare agregată a informatiilor, de exexemplu sa vedem cladirea si, daca dam zoom pe un etaj, sa descoperim detalii despre datele colectate pe respectivul etaj PRECIS. Ulterior se pot integra si datele din BMS-ul cladirii PRECIS.


T4.3: Aplicatie pentru monitorizarea spatiilor de parcare

Coordonator: Ciprian Dobre

Numar studenti: 1-2

Tema propune dezvoltarea unei aplicatii IoT care sa ajute la monitorizarea spatiilor de parcare. Se dau la intrare senzori de presiune pe locul de parcare (avem astfel de senzori montati in parcarea PRECIS). Aplicatia Web va primi datele senzorilor, si va oferi posibiliatea utilizatorilor de a face o rezervare a unui loc de parcare (o perioada de timp). Cand rezervarea este confirmata, pe client-side (care poate fi o aplicatie Web-native sau o aplicatie mobila) se va prezenta o planificare a rutei masinii (pornind de la locatia curenta si graful de strazi – de exemplu, aici se poate folosi OpenStreetMap) pana la locul rezervat in momentul in care se apropie ora rezervarii. Daca locatia se ocupa intre timp, aplicatia va incerca automat o rerutare catre un alt loc de parcare inca disponibil.


T4.4: Aplicatie pentru monitorizare folosind sunet

Coordonator: Ciprian Dobre

Numar studenti: 1-2

Tema propune dezvoltarea unui algoritm pentru monitorizare folosind sunet captat in diverse locatii. Veti folosi o placuta Raspberry Pi pentru a capta sunetul (sau un microfon legat de un calculator) si, folosind analiza (de exemplu, transformate Fourier), propunerea ar fi sa recunoasteti sunetul unei drujbe (scenariul ar fi ca senzorul e lasat intr-o padure) sau foc, sau chiar recunoasterea unui strigat de ajutor.


T4.5: Aplicatie crowdsourcing bazata pe gamification

Coordonatori: Ciprian Dobre, Radu-Ioan Ciobanu

Numar studenti: 3

Tema propune crearea unei aplicatii pe telefonul mobil pentru: (aici alegerea va apartine):.
1) crearea unei harti de zgomot a unui oras precum Bucurestiul (in acest caz, telefonul mobil va transmite nivelul de zgomot asa cum este el detectat). In acest caz, diverse telefoane vor capta nivele de zgomot in diverse locatii din oras, in timp, pe care il transmit spre un server. Datele centralizate la server vor fi folosite pentru crearea unei aplicatii Web care prezinta o harta a nivelului de poluare sonora in oras..
2) ca diverse persoane sa faca poze cu diverse probleme urbane (de exemplu, o groapa in asfalt nerezolvata, o portiune unde iarba nu a fost tunsa, etc.). Aceste probleme se transmit spre un server, sau in aplicatia mobila diversele problemele semnalate langa locatia curenta a utilizatorului se afiseaza pe o harta si utilizatorul are posibilitatea sa dea like sau dislike daca problema a fost sau nu intre timp rezolvata.
3) crearea unei aplicatii pentru colectarea starii de stress in mobilitate. Concret, aplicatia va recunoaste cand utilizatorul este in miscare si, la final, va oferi posibilitatea colectarii printr-un formular minimal a satisfactiei utilizatorului (“Am observat ca v-ati aflat in miscare. Cat de multumit/a ati fost cu mijlocul de transport folosit? Cat de multumit/a ati fost de ceilalti participanti la mobilitate din jurul dumneavoastra?”). In final, datele se colecteaza pe un server si se prezinta intr-o aplicatie Web ca o harta a satisfactiei de mobilitate (functie si de distantele parcurse in medie de utilizatori – ne asteptam ca utilizatorii care locuiesc la periferie vor fi mai nefericiti cu mobilitatea urbana decat cei aflati mai in centru, dar trebuie sa dovedim acest lucru).
Pentru oricare dintre aceste aplicatii, un aspect important il constituie inventarea unor solutii interesante de gamification – altfel spus, cum putem determina utilizatorii sa ramana conectati si sa foloseasca aplicatia mobila dezvoltata cat mai mult timp. De exemplu, putem oferi badges pentru utilizatori, putem gandi solutii gen “scavenger hunts” (similar cu Pokemonii castigati), putem gandi podium si clasamente, dar si altele.


T4.6: Monitorizarea si detectia de activitati sportive si/sau fizice

Coordonatori: Ciprian Dobre, Radu-Ioan Ciobanu

Numar studenti: 1-2

Odata cu inaintarea in varsta, ajungem sa suferim de probleme de motricitate si/sau mobilitate. Tema propune realizarea unei aplicatii de monitorizare a unor astfel de conditii. Se dau un calculator conectat la o camera, fixata pe utilizator, si la un televizor (sau monitor). Pe calculator ruleaza aplicatia dezvoltata de voi, ce initial prezinta utilizatorului un avatar (puteti folosi orice tehnologie de randare 3D, gen Unity) ce efectuaza o serie de miscari. Utilizatorul urmareste miscarile, si apoi trebuie sa le reproduca. Camera video (nu e necesara o camera super avansata) va monitoriza utilizatorul si aplicatia, folosind analiza video (de exemplu, puteti folosi OpenCV, Nuitrack, sau alte biblioteci), va face o recunoastere a posturii (scheletului). Ideea e sa recunoastem cat de aproape executa utilizatorul miscarile comparativ cu avatarul, si sa recunoastem probleme de articulatie (de exemplu, utilizatorul nu a ridicat mana la 90 de grade pentru ca nu poate). Optional, se va adauga si posibilitatea ca avatarul sa execute miscari programate in functie de persoana din fata camerei (in functie de conditiile persoanei, un medic poate prescrie exercitii personalizate), caz in care aplicatia se poate tranforma intr-un kinetoterapeut virtual.


S5. Retele vehiculare

Sim2Car este o aplicatie de simulare de trafic de autovehicule in orase implementata in Java. Foloseste date de trafic reale (in orase ca San Francisco, Roma sau Beijing) si poate fi utilizata pentru evaluarea performantelor unor solutii de tip Smart City. De exemplu, pornind de la datele care arata cum s-au deplasat masinile dintr-un oras cum e San Francisco pentru o perioada de timp, se pot extrage metrici precum viteza medie de deplasare, consumul de combustibil sau timpul mediu pana la destinatie, cu scopul de a se imbunatati folosind solutii inteligente.


T5.1: Dirijare inteligenta a traficului

Coordonator: Ciprian Dobre

Numar studenti: 1-2

Aceasta tema propune implementarea in Sim2Car a diverse metode de dirijare inteligenta a traficului intr-un oras inteligent. Astfel, se poate presupune ca autovehiculele din oras sunt dispuse cu senzori si ca au capacitatea de a comunica intre ele prin diverse metode (fie prin intermediul unui backend cloud, fie intr-un mod vehicle-to-vehicle atunci cand se afla in proximitate). Intr-o astfel de situatie, masinile pot trimite una catre alta informatii despre trafic, intarzieri, obstacole, drumuri ocolitoare, etc., pentru a genera noi trasee care pot duce la imbunatatirea traficului.


T5.2: Simulator de mobilitate urbana in tehnologie Web

Coordonator: Ciprian Dobre

Numar studenti: 2-3

Tema propune dezvoltarea unui simulator de trafic in tehnologie Web. Simulatorul va permite vizualizarea infrastructurii de strazi a unui oras (OpenStreetMap ca tehnologiie, de exemplu) peste care masini se pot misca in timp. Pornim de la masini care se deplaseaza conform unor distributii de probabilitate (masini apar periodic, masini ies periodic pentru ca ajung la destinatie – model matematic de mobilitate). Apoi adaugam solutia de miscare pornind de la masini asa cum le-am monitorizat in lumea reala (si avem trace-uri de date cu masini care se miscau in orase precum San Francisco, Roma sau Beijing). Dupa aceasta, masinile capata rute (miscare pe o traiectorie pana la o destinatie, pe graful de strazi), si dorim sa vedem ce se intampla cu ruta masinilor daca adaugam elemente diferite de control (adaugam un semafor intr-o intersectie, de exemplu). Urmatorul element e cel in care masina capata inteligenta in decizii (ganditi-va la o aplicatie de smart routing in masina), si atunci ruta se poate actualiza dinamic (daca e o congestie in trafic, masina poate alege o alta ruta pana la destinatie). Scopul final e sa putem evalua scenarii in care incercam sa intelegm daca masinile fac mai putin timp in trafic, sau consuma mai putin combustibil (se introduce si un model probabilistic de consum in functie de capacitatea masinii sau tipul de combustibil, de exemplu), daca se introduc elemente de infrastructura intr-un oras (precum schimbarea unui sens de circulatie pe o strada, de exemplu). Deasupra, trebuie sa ganditi o solutie de reprezentare grafica (eventual chiar 3D, dar nu e obligatoriu) a orasului in conditiile de miscare pentru masini (tehnologie client-side).
Toate aceste elemente se pot imprumuta ca specificatii (dar nu e obligatoriu) dintr-o aplicatie deja dezvoltata in UPB, simulatorul Sim2Car, implementat in Java. Acest simulator permite executia de simulari in care masini se misca pe o harta, peste drumuri, scopul fiind de a evalua efectul unor factori precum introducerea unor semafoare inteligente sau diverse aplicatii on-board de rutare inteligenta.


S6. Sisteme de calcul mobil

Aplicatiile mobile din ziua de azi constau in general dintr-o componenta frontend care ruleaza pe dispozitivul mobil si o componenta backend care ruleaza in cloud si care are rolul de a executa calcule complexe sau de a aduce date. Din pacate, acest model duce la costuri mari pentru dezvoltatorii de aplicatii (pentru ca este necesara o infrastructura cloud care poate sa scaleze cu numarul de utilizatori) si la o experienta proasta de utilizare (daca latenta este mare sau daca utilizatorii folosesc o conexiune mobila broadband pe care o platesc). Astfel, apare ideea de Drop Computing, ce propune descentralizarea computing-ului si a datelor peste retele cu mai multe nivele, prin combinarea tehnologiilor cloud si wireless peste o multime sociala formata din dispozitive mobile si de margine (edge). Dispozitivele mobile si oamenii se inter-conecteaza si colaboreaza ad-hoc in mod dinamic, pentru a suporta echivalentul unui cloud de cloud-uri multi-nivel, unde capacitatile oricarui dispozitiv mobil sunt extinse dincolo de barierele tehnologice locale, pentru a acomoda resurse externe disponibile in multimea formata din alte dispozitive. Astfel, in loc ca fiecare cerere de date sau calcule sa fie directionata catre cloud, Drop Computing foloseste dispozitivele din proximitate pentru acces mai rapid si mai eficient. Nodurile din vecinatate sunt folosite pentru a oferi date deja descarcate sau pentru a realiza calcule si operatii complexe, iar cloud-ul actioneaza ca o a doua sau chiar a treia optiune.
La nivelul cel mai de jos al unei retele Drop Computing, dispozitivele mobile comunica intre ele prin intermediul retelelor oportuniste. Acestea presupun ca nodurile mobile pot schimba date folosind protocoale de distanta mica precum Bluetooth sau Wi-Fi Direct, dirijarea mesajelor facandu-se intr-un mod probabilistic, folosind euristici bazate pe context. Aceste euristici au rolul de a maximiza rata de succes a dirijarii oportuniste (adica de a maximiza numarul de mesaje care ajung cu succes la destinatie), de a minimiza latenta, dar si de a reduce pe cat posibil consumul de baterie. Acesta din urma este un element important in retele formate din dispozitive mobile, motiv pentru care se incearca limitarea numarului de mesaje trimise in retea si utilizarea de informatii de context pentru a prezice cu succes daca un nod mobil intalnit in retea este potrivit sa fie urmatorul hop pentru un mesaj. Printre tipurile de informatii de context care s-au folosit de-a lungul anilor pentru dirijare de mesaje in retele oportuniste, se afla istoricul contactelor, conexiunile sociale, pozitia geografica, programul utilizatorului care detine nodul mobil, preferintele utilizatorului, etc.
Temele din cadrul acestei sectiuni implica propunerea si evaluarea de solutii de dirijare pentru Drop Computing, atat in simulare, cat si pe dispozitive mobile cu Android sau iOS. Mai mult, o parte din teme implica si colectarea sau implementarea de componente auxiliare necesare testarii si evaluarii Drop Computing.


T6.1: Dirijare si diseminare in retele oportuniste

Coordonator: Radu-Ioan Ciobanu

Numar studenti: 2-3

In retele oportuniste, una din cele mai importante componente este reprezentata de algoritmii folositi pentru dirijare si diseminare de date, al caror scop este sa maximizeze rata de succes si sa minimizeze latenta de livrare si consumul de baterie, folosind informatii de context si metode inteligente de predictie. Aceasta tema presupune implementarea si evaluarea de solutii proprii de dirijare si diseminare in simulare (pe scenarii de scara larga, folosind simulatorul MobEmu) sau pe dispozitive mobile cu Android sau iOS. In contextul retelelor oportuniste, dirijarea se refera la trimiterea de mesaje directionate de la un nod A catre un nod B, iar diseminarea inseamna raspandirea unor mesaje tuturor nodurilor care se declara ca fiind interesate de ele.


T6.2: Offloading de calcule in Drop Computing

Coordonator: Radu-Ioan Ciobanu

Numar studenti: 2-3

Drop Computing este momentan implementat intr-un simulator, unde i se poate analiza comportamentul pe scara larga. Aceasta tema presupune implementarea lui pe dispozitive reale si testarea offloading-ului de calcule de pe un nod mobil (un smartphone) catre un alt nod mobil sau catre un dispozitiv de tip edge (adica o masina fixa). Acest lucru presupune impartirea codului unei aplicatii Android sau iOS in componente care pot fi offload-ate (folosind adnotari sau in mod automat), analiza unui nod din proximitate din punct de vedere al capabilitatilor de ajutat cu calculele, si in cele din urma offload-ul propriu-zis al codului si executia sa remote.


T6.3: Implementare Drop Computing in alte simulatoare

Coordonator: Radu-Ioan Ciobanu

Numar studenti: 1-2

In momentul de fata, Drop Computing este implementat in simulatorul MobEmu, care abstractizeaza si simplifica o parte importanta din stiva de retea. Pentru un control mai detaliat al simularilor, aceasta tema propune utilizarea unui alt simulator mai complex pentru implementarea Drop Computing. Exemple de astfel de simulatoare includ ONE (Opportunistic Network Environment), ns-3, etc.


T6.4: Colectare si analiza de trace-uri mobile

Coordonator: Radu-Ioan Ciobanu

Numar studenti: 1-2

Pentru a putea studia pe scara larga beneficiile unor algoritmi de dirijare si diseminare in Drop Computing, intai se implementeaza si ruleaza solutia intr-un simulator, si abia apoi se face deployment intr-un scenariu adevarat. Intr-un simulator, pentru a putea aproxima cat mai bine comportamentul unor noduri dintr-o retea oportunista, se folosesc fie modele matematice de mobilitate care incearca sa aproximeze miscarea si interactiunile umane, fie trace-uri de date colectate din situatii reale. Aceasta tema de cercetare presupune implementarea unei aplicatii mobile care sa colecteze astfel de trace-uri. Mai precis, aplicatia trebuie ca, atunci cand doua dispozitive mobile sunt in proximitate, sa inregistreze ID-urile dispozitivelor, momentul contactului, si durata sa. Aditional, se pot colecta alte informatii cum ar fi nivelul de baterie al nodurilor, memoria ocupata, frecventa pe procesor, numarul de core-uri folosite, activitatea utilizatorului, etc., pentru a oferi o imagine mai completa asupra retelei mobile. Etapa a doua a acestei solutii presupune deployment-ul acestei aplicatii pe o scara larga (de exemplu, catre studentii dintr-o grupa sau dintr-o serie) si colectarea de date pe o anumita perioada. In final, datele colectate trebuie analizate si, pe baza lor, trase concluzii despre modul in care nodurile interactioneaza, pattern-urile descoperite, gruparea utilizatorilor in comunitati, comportamentul dispozitivului, etc.


T6.5: Model de mobilitate umana

Coordonator: Radu-Ioan Ciobanu

Numar studenti: 1-2

Pentru a putea studia pe scara larga beneficiile unor algoritmi de dirijare si diseminare in Drop Computing, intai se implementeaza si ruleaza solutia intr-un simulator, si abia apoi se face deployment intr-un scenariu adevarat. Intr-un simulator, pentru a putea aproxima cat mai bine comportamentul unor noduri dintr-o retea oportunista, se folosesc fie modele matematice de mobilitate care incearca sa aproximeze miscarea si interactiunile umane, fie trace-uri de date colectate din situatii reale. Aceasta tema de cercetare presupune crearea, implementarea si validarea unui model de mobilitate care sa aproximeze cat mai bine comportamentul uman in diferite scenarii, atat indoor, cat si outdoor. Modelul se va implementa intr-un simulator existent (ONE sau MobEmu) si va fi validat pe trace-uri reale de date. Ca un element aditional, se pot apoi aplica algoritmi de rutare si diseminare in retele mobile pentru a observa comportamentul modelului.


T6.6: Estimarea multimilor in orase inteligente

Coordonatori: Radu-Ioan Ciobanu, Ciprian Dobre

Numar studenti: 1

Tehnologiile “pervasive” de detectie (ex., senzori wireless, camere stradale, etc.) permit implementarea de solutii de estimare a multimii in orasele inteligente. Cu toate acestea, sistemele existente bazate pe Wi-Fi nu ofera o estimare foarte precisa a dimensiunii multimilor, pentru ca nu se adapteaza usor la modificari subite si la comportamente dinamice. Aceasta tema implica investigarea solutiilor existente si propunerea de noi metode de detectie a multimilor bazate pe IoT si ML/AI, cu pastrarea confidentialitatii si anonimizarea datelor utilizatorilor. Ca un punct de start, va recomandam sa cititi acest articol.


T6.7: Clasificarea traficului multimedia pe dispozitivele mobile

Coordonatori: Radu-Ioan Ciobanu, Ciprian Dobre

Numar studenti: 1-2

In retelele mobile centrate pe utilizator, o problema curenta o reprezinta incapacitatea acestora de a determina tipul de trafic criptat care are loc si, prin urmare, nivelul de serviciu al retelei de care traficul are nevoie pentru a mentine un QoE acceptabil. Noi metode propun realizarea clasificarii traficului chiar la nivelul dispozitivelor finale, deoarece acestea au mai multe informatii contextuale despre utilizarea si traficul dispozitivului. Ele pot detecta propriul context multimedia, caracterizat prin utilizarea diferitelor componente de I/O media (ex., camera, microfon, difuzor, etc.). Aceasta tema implica investigarea solutiilor existente si propunerea de noi metode de clasificare a traficului pe dispozitive mobile. Ca un punct de start, va recomandam sa cititi acest articol.


T6.8: Comunicatie oportunista in orase inteligente

Coordonator: Radu-Ioan Ciobanu

Numar studenti: 1-2

In ziua de azi, cheltuielile necesarii transformarii unui oras intr-un “smart city” sunt foarte mari, un factor notabil fiind oferirea de conectivitate celulara dispozitivelor IoT. O solutie posibila este 5G, dar se estimeaza ca acesta nu va putea suporta miliardele de dispozitive IoT care ar ajunge sa fie online. Un mod de a diminua aceasta problema este utilizarea cetatenilor, a vehiculelor si a nodurilor de transport public pentru a ajuta la realizarea comunicatiei oportuniste dispozitiv-la-dispozitiv, lucru care ar reduce costurile de conectivitate celulara asociate cu senzorii orasului inteligent. Aceasta tema se refera la propunerea si evaluarea unor solutii de amplasare rentabila a nodurilor de tip “edge” in orasele inteligente, care pot ajuta la valorificarea oportunista a cetatenilor, vehiculelor si retelelor de transport public. Ca un punct de start, va recomandam sa cititi acest articol.


T6.9: Realitate augmentata mobila

Coordonatori: Radu-Ioan Ciobanu, Ciprian Dobre

Numar studenti: 6-7

Realitatea augmentata (AR) ofera experiente inedite pentru utilizatori prin suprapunerea informatiilor digitale peste medii fizice. Realitatea augmentata mobila (MAR) integreaza obiecte virtuale generate de calculator cu medii fizice pentru dispozitive mobile. Sistemele MAR le permit utilizatorilor sa interactioneze cu dispozitive MAR, cum ar fi smartphone-uri și dispozitive wearable, si sa efectueze fara probleme tranzitii de la lumea fizica la o lume cu entitati digitale. Astfel, sistemele MAR ofera acces universal la continut digital. Constientizarea contextului este deci cruciala pentru oferirea de informatii si actiuni relevante utilizatorilor. Aceasta tema isi propune studiul a diferite componente care tin de realitatea augmentata mobila, precum recunoasterea obiectelor, protocoalele folosite, context-awareness, offloading de calcule, colaborarea cu IoT, etc. Ca un punct de start, va recomandam sa cititi aceste articole: 1, 2, 3, 4, 5, 6, 7.


S7. Smart Campus si Digital Twins

Orasele se confrunta cu provocari majore in ceea ce priveste densitatea populatiei, poluarea aerului, congestia traficului si schimbările climatice. Urbanizarea este un fenomen in continua crestere, si, pana in 2080, 80% din populatie va fi urbana. Potrivit Organizatiei Mondiale a Sanatatii, exista aproximativ 7 milioane de decese anuale cauzate de poluarea aerului, incluzand atat poluarea din aer liber, cat si cea din interior. Pentru a aborda aceste provocari, orasele vor avea nevoie de date de inalta calitate si mijloace de a extrage informatii relevante din acestea, pentru luarea deciziilor si crearea de politici urbane. Orasele inteligente NetZero ofera o oportunitate unica de a crea comunitati mai durabile si mai placute. Prin valorificarea puterii Digital Twins si utilizarea tehnologiilor precum IoT, Big Data si 5G, orasele inteligente isi pot reduce impactul lor asupra mediului, in timp ce imbunatatesc calitatea vietii rezidentilor. Pe langa solutiile tehnologice, un oras inteligent NetZero va utiliza accesul deschis la date pentru cetateni si alte parti interesate. In acest sens, exista doua nevoi principale de infrastructura: un Living Lab si o platforma Digital Twin (DT). Un Living Lab reprezinta o infrastructura reala care reflecta un oras, iar un Digital Twin este o replica digitala (bazata pe IoT, Big Data si AI/ML) a entitatilor dintr-un oras, care permite orice interactiune din lumea reala sa fie transmisa in lumea digitala si invers. Prin urmare, DT este o platforma in continua evolutie care stocheaza date istorice si curente ale oraselor din viata reala si ajuta la monitorizare, crearea de noi modele si tendinte, si chiar si crearea de scenarii de simulare de tip what-if, din care se pot extrage informatii care pot afecta orasele reale.


T7.1: Platforma open data NetZeRoCities

Coordonatori: Radu-Ioan Ciobanu, Ciprian Dobre

Numar studenti: 1-2

Principalul obiectiv este de a implementa o platforma de date deschisa, care va colecta date de la serviciile din zona Campusului Inteligent, le va analiza si va extrage informatii despre modul in care Campusul Inteligent UPB ar putea deveni un Livig Lab NetZero. Unul dintre obiectivele specifice aici este de a crea un motor Big Data care agrega date din surse multiple si heterogene (de exemplu, transport, mediu, energie, cladiri) si interoghează datele in evolutie, extrase din obiectele fizice. Unul dintre celelalte obiective va fi ca datele sa fie disponibile pentru cercetatori, dezvoltatori si cetateni, pentru a crea noi solutii pentru un oras inteligent NetZero.


T7.2: Engine BigData care agrega date din surse multiple

Coordonatori: Radu-Ioan Ciobanu, Ciprian Dobre

Numar studenti: 1-2

Datele heterogene reprezinta una dintre cele mai mari provocari pentru o platforma de oras inteligent. In acest proiect, va fi creata o ontologie sau va fi adoptata una existenta, iar un motor Big Data va fi implementat cu sarcina de a agrega datele din surse multiple. Tot aici, se vor implementa mecanisme de integrare a rezultatelor unei platforme de gestionare a cladirilor inteligente cu motorul Big Data.


T7.3: Digital Twin

Coordonatori: Radu-Ioan Ciobanu, Ciprian Dobre

Numar studenti: 1-2

Obiectivul principal al acestui proiect este de a crea si implementa mai multe servicii care vor permite conceptul de Digital Twins pentru diferite domenii verticale (mobilitate, cladiri, energie etc.), precum si un Digital Twin pentru Campusul Inteligent. Serviciile vor fi utilizate in zona Campusului Inteligent si vor fi si se vor concentra pe monitorizarea si imbunatatirea rezultatelor NetZero pentru un oras neutru din punct de vedere climatic.


T7.4: Modele de date pentru o retea de Digital Twins

Coordonatori: Radu-Ioan Ciobanu, Ciprian Dobre

Numar studenti: 1-2

In acest proiect, vor fi create si stocate modele pentru diferiti Digital Twins intr-o retea de modele care pot fi accesate de autoritati in cazul in care doresc ss implementeze un astfel de model. Modelele, care vor fi create cu accent pe serviciile de Neutralitate Climatica, pot include modele digitale de vehicule, modele DT de mobilitate, modele DT de poluare, modele Smart IoE, etc.


T7.5: Mecanism pentru vizualizarea datelor spatiale

Coordonatori: Radu-Ioan Ciobanu, Ciprian Dobre

Numar studenti: 1-2

Rolul acestui proiect este de a crea o componenta de vizualizare a datelor si informatiilor colectate intr-un context tridimensional, astfel incat autoritatile si alte parti interesate sa poata avea o imagine clara asupra masurilor implementate si a rezultatelor acestora, intr-un mod vizual. Diferiti Digital Twins vor fi conectati la aceasta componenta, iar datele vor fi prezentate intr-un mod prietenos utilizatorului. Utilizatorul va putea, de asemenea, sa manipuleze datele, de exemplu, dintr-o perspectiva istorica, pentru a vedea cum s-au dezvoltat datele si cum politicile diferite le modeleaza.


S8. Aplicatii si framework-uri pentru dispozitive mobile

Temele din aceasta sectiune presupun implementarea unor aplicatii sau framework-uri pentru dispozitive mobile.


T8.1: Aplicatie mobila pentru o familie

Coordonatori: Florin Pop, Bogdan-Costel Mocanu

Numar studenti: 1-2

Scopul temei este unul simplu: definirea unei aplicatii mobile pentru o familie (parinti, copii, bunici), dar nu numai (poate fi aplicata si pentru grupuri de prieteni) ca suport pentru activitatile recreative, sociale, gestiunea evenimentelor, a bunurilor comune, etc. Vom modela împreuna conceptul de familie / grup, vom proiecta modelul de date si de stocare a acestora, functionalitatile care le poate oferi aplicatia. Dintre acestea, cateva exemple ar fi: evenimente de familie (cu notificari) legate de o mini-componenta calendar (de exemplu pentru zilele de nastere ale cunoscutilor), o alarma spatiala (care sa ne notifice când suntem într-o anumita locatie) si multe altele (sunteti invitati la inovare). Vom tine cont si de aspectele legate de securitate.


T8.2: Biblioteca mea mobila

Coordonator: Florin Pop

Numar studenti: 1-2

Foarte multe persoane au în casa o biblioteca de carti personale, mai mica sau mai mare. De cele mai multe ori ne dorim sa stim la un moment dat daca avem sau nu o carte în biblioteca si anumite informatii despre aceasta (coperta, anul, editura, etc.). Scopul proiectului este crearea unei aplicatii mobile care sa ne ajute sa catalogam cartile din biblioteca personala si sa avem o functie de cautare bine realizata. Functia de catalogare ar putea apela si la operatii de OCR, cum ar fi fotografierea copertilor cartii si extragerea automata informatiilor. Daca o carte poate fi gasita gratuit pe Internet, putem aduce link-ul acesteia în aplicatie. Cautarea ar trebui sa fie una avansata.


T8.3: Framework de gestiune a puterii si performantei pe dispozitive Android

Coordonator: Radu-Ioan Ciobanu

Numar studenti: 1-2

Un mare neajuns al telefoanelor inteligente in ziua de azi este in continuare durata scurta de viata a bateriei. Aceasta tema presupune investigarea componentelor de performance si power management atât la nivel de Android (precum Doze, thermal mitigation, modul “sustained performance”, etc.), cât si la nivel nativ sau chiar de nucleu (DVFS – dynamic voltage and frequency scaling, hotplugging, frequency/idle governors, etc.), precum si solutii deja existente (ex., Perfetto). Rezultatul final va fi un framework prin intermediul careia aplicatiile Android vor putea controla performanta si consumul de baterie al dispozitivului mobil pe care ruleaza.


T8.4: Aplicatii cu dispozitive wearable

Coordonatori: Radu-Ioan Ciobanu, Ciprian Dobre

Numar studenti: 3-4

Dispozitivele de tip smart watch/bracelet pot fi folosite pentru colectarea de date care ar ajuta la detectia diferitelor activitati umane (ex., spalatul pe maini) sau afectiuni (ex., boli musculo-scheletale), la autentificare (ex., prin detectia mersului), etc. Aceasta tema implica evaluarea si implementarea unor astfel de solutii, fie pe ceasurile Huawei cu HarmonyOS pe care le avem in laborator, fie pe alte dispozitive similare. Ca un punct de start, va recomandam sa cititi aceste articole: 1, 2, 3.


T8.5: Invatare federata pe dispozitive wearable

Coordonator: Radu-Ioan Ciobanu

Numar studenti: 1-2

Dispozitivele wearable colecteaza informatii despre utilizatori si activitatile lor si ofera informatii pentru ca acestia sa-si imbunatateasca stilul de viata de zi cu zi. Aplicatiile de e-health au obtinut un mare succes prin antrenarea modelelor de ML pe o cantitate mare de date despre utilizatori, obtinute de la dispozitive wearable. Cu toate acestea, confidentialitatea devine critica pentru antrenarea modelelor ML intr-un mod centralizat. Invatarea federata este o noua paradigmă ML care poate antrena modele de inalta calitate chiar daca datele de antrenament sunt distribuite pe un numar mare de dispozitive. Aceasta tema implica evaluarea invatarii federate pe dispozitive wearable, precum si propunerea si evaluarea de solutii in scenarii reale. Ca un punct de start, va recomandam sa cititi acest articol.


S9. Monitorizarea multimilor intr-un mod privacy-preserving

In momentul de fata, in numeroase spatii publice sunt instalate scannere Wi-Fi care sunt folosite pentru a intelege dinamica persoanelor. In fapt, se detecteaza dispozitive mobile pe care persoanele le poarta cu ele. Datele colectate de aceste scannere sunt privacy-sensitive, in sensul ca ele pot duce la identificarea unica a persoanelor care sunt monitorizate. Acest lucru nu trebuie sa se intample, intrucat este explicit interzis de reglementarile referitoare la protectia datelor (cum ar fi GDPR). Temele din aceasta sectiune vizeaza mai multe aspecte ale acestei probleme.


T9.1: Estimarea dinamicii multimilor prin tracing Wi-Fi

Coordonator: Ciprian Dobre

Numar studenti: 1

Pentru inceput, se va realiza o configurare si instalare de infrastructura. Se dau placute Raspberry Pi cu capabilitati de receptie Wi-Fi si transmitere date catre un data server. Se va instala softul necesar citirii pe diverse canale Wi-Fi a Probe Request-urilor Wi-Fi provenind de la dispozitive mobile. Pe serverul de date, aceste date se vor colecta si stoca in trace-uri. Peste se va realiza o aplicatie de analiza a semnalelor primite, in timp, pentru a intelege daca si cum se poate estima dinamica multimilor (daca dispozitivul A a fost intai vazut de routerul Wi-Fi X1 si apoi de routerul WiFi X2, A inseanma ca se deplaseaza de la X1 la X2). Ne intereseaza sa raspundem la intrebari de genul: cate dispozitive au fost initial in intersectia A, apoi in intersectia B, si au mai fost vazute in intersectia C.


T9.2: Aplicatie de Wi-Fi sniffing cu k-anonymity

Coordonatori: Ciprian Dobre, Valeriu-Daniel Stanciu

Numar studenti: 1

Tema este o continuare a Temei 9.1, dar aici se dau la intrare deja seturi de date cu semnale Wi-Fi anterior captate in diverse scenarii si locatii. Tema presupune realizarea unui algoritm pentru anonimizarea datelor (direct la scanner, la sursa). Concret, datele captate de scannerere Wi-Fi intra sub incidenta GDPR, astfel incat ne dorim crearea unor structuri de date unde semnalele sa fie salvate, dar fara ca MAC-urile telefoanelor individuale sa poata fi recunoscute. Nu este suficient nici sa pseudo-anonimizam MAC-urile, pentru ca in continuare pot reusi diverse atacuri sociale. Si atunci, tema va cauta inspiratie in Differential Privacy (dar si alte solutii propuse de student). Pentru validare, se vor realiza analize comparative – cate telefoane stiu ca erau in A si apoi B (in timp) cu datele reale, si cate vad cu solutia cu anonimizare.


T9.3: Algoritm pentru de-randomizarea adreselor MAC

Coordonatori: Ciprian Dobre, Valeriu-Daniel Stanciu

Numar studenti: 1

Tema este o continuare a Temei 9.1, dar aici se dau la intrare deja seturi de date cu semnale Wi-Fi anterior captate in diverse scenarii si locatii. In ultimii ani, din ce in ce mai multe dispozitive mobile au inceput sa foloseasca adrese MAC random cand transmit semnale Wi-Fi. Pe langa faptul ca sunt random, aceste adrese se schimba la diferite intervale de timp. Totusi, anumite caracteristici ale transmisiilor indica faptul ca unele semnale sunt generate de acelasi dispozitiv. De exemplu, VendorID-ul din MAC ramane comun, sau MAC-ul ramane cel real in timpul unei convorbiri (randomizarea se aplica doar pentru Probe Requests). De asemenea, se poate folosi traiectoria de miscare a unui dispozitiv (daca l-am vazut in A si apoi in B cu seqNo consecutive putem presupune ca era acelasi dispozitiv, de exemplu). Pentru aceasta tema, ne propunem sa construim un algoritm bazat pe ML/AI care sa conduca la o estimare cat mai apropiata de realitate a numarului de dispozitive aflate intr-o locatie, cu ipoteza ca un subset din dispozitive emite in timp pachetele cu MAC-uri random.


S10. Invatare federata pentru mobilitate umana

Pe masura ce invatarea automata este aplicata din ce in ce mai des pentru a modela si a prezice mobilitatea umana, multe discutii se invart in jurul consecintelor etice pe care aceasta abordare le are asupra intimitatii oamenilor. O provocare majora consta in obtinerea unui echilibru intre utilitatea serviciilor de predictie a mobilitatii folosind invatarea automata, si intimitatea oamenilor. O abordare promitatoare in aceasta situatie este invatarea federata, care permite unor entitati distribuite sa colaboreze pentru a antrena modele locale de invatare automata sub constrangeri stricte de securitate si intimitate. Mai mult, aceasta abordare permite o modelare mai buna si o scalabilitate mai mare, prin partajarea cunostintelor acumultate in urma procesului de invatare si impartirea costurilor asociate.
Invatarea federata a fost aplicata pana in prezent pe multe tipuri de date, precum vorbire, sanatate, imagini si text. Totusi, prin temele din aceasta sectiune, suntem interesati de aplicarea invatarii federate pe date legate de mobilitatea umana, pentru ca aceasta are o influenta foarte mare asupra unei varietati de factori care afectaza vietile oamenilor. Un prim exemplu ar fi forma, dimensiunile si comportamentul in marile orase, elemente dictate de dinamica locuitorilor. Ne putem imagina ca, in viitor, vom locui in orase unde transportul urban va deveni mai eficient si se va adapta in timp real la nevoile locuitorilor, unde programele magazinelor sau institutiilor publice se vor modifica pentru a le face disponibile sa serveasca un numar cat mai mare de oameni, unde, in cazul unor urgente, fluxurile de oameni vor fi optimizate astfel incat un numar maxim de vieti sa poata fi salvate, sau unde echipajele de salvare vor avea acces la unelte care le vor permite sa isi utilizeze resursele la maxim. Planificarea de facilitati, orasele inteligente, marketing-ul, turismul sau domeniul entertainment-ului sunt doar cateva exemple de domenii care ar putea beneficia de intelegerea mobilitatii si a dinamicii multimilor.
Temele din aceasta sectiune presupun colectarea si analiza de date de mobilitate, precum si aplicarea de algoritmi de invatare federata pe aceste date, pentru a testa fezabilitatea si eficienta acestora.


T10.1: Invatare federata in scenarii de mobilitate umana la interior

Coordonator: Radu-Ioan Ciobanu

Numar studenti: 1-2

Aceasta tema presupune aplicarea invatarii federate pentru predictia mobilitatii umane in scenarii de interior, precum universitati, concerte, evenimente sportive, etc. Astfel, se vor implementa algoritmi de invatare automata cunoscuti (precum Recurrent Neural Network, Dilated Recurrent Neural Network, Recurrent Highway Network, etc.) si se vor adapta la scenariul de mobilitate umana la interior, cu scopul de a identifica parametrii generici necesari acestui scenariu. Mai departe, se vor valida acesti algoritmi pe diverse seturi de date.


T10.2: Invatare federata in scenarii de mobilitate umana la exterior

Coordonator: Radu-Ioan Ciobanu

Numar studenti: 1-2

Aceasta tema presupune aplicarea invatarii federate pentru predictia mobilitatii umane in scenarii de exerior, in arii de dimensiuni mari cu fluxuri libere de circulatie, precum orasele inteligente. Intr-un astfel de scenariu, solutiile de invatare federata ar putea realiza, de exemplu, previziuni pentru a trimite in mod dinamic echipe de salvare catre zone cu probleme, deci putem presupune ca este necesar un nivel mare de incredere mutuala intre nodurile care aplica algoritmii de invatare federata, precum si prezenta unui nod cloud responsabil cu coordonarea procesului de invatare. Astfel, se vor implementa algoritmi de invatare automata cunoscuti (precum Recurrent Neural Network, Dilated Recurrent Neural Network, Recurrent Highway Network, etc.) si se vor adapta la scenariul de mobilitate umana la exterior, cu scopul de a identifica parametrii generici necesari acestui scenariu. Mai departe, se vor valida acesti algoritmi pe divese seturi de date.


T10.3: Invatare federata in scenarii de mobilitate vehiculara

Coordonator: Radu-Ioan Ciobanu

Numar studenti: 1-2

Aceasta tema presupune aplicarea invatarii federate pentru predictia mobilitatii vehiculare in orase mari. Intr-un astfel de scenariu, s-ar putea presupune ca locuitorii participa intr-o platforma deschisa de car sharing, de exemplu, unde o solutie de invatare federata descentralizata s-ar potrivi bine, din cauza unei increderi scazute intre nodurile participante (soferii). Astfel, se vor implementa algoritmi de invatare automata cunoscuti (precum Recurrent Neural Network, Dilated Recurrent Neural Network, Recurrent Highway Network, etc.) si se vor adapta la scenariul de mobilitate vehiculara, cu scopul de a identifica parametrii generici necesari acestui scenariu. Mai departe, se vor valida acesti algoritmi pe divese seturi de date.


T10.4: Platforma de invatare federata pentru mobilitate umana si vehiculara

Coordonator: Radu-Ioan Ciobanu

Numar studenti: 2-3

Obiectivul principal al acestei teme este de a studia modul in care dimensiuni diferite ale invatarii federate interactioneaza atunci cand se implementeaza o platforma software generica pentru astfel solutii in contextul modelarii si predictiei de mobilitate. In acest mod, se vor implementa noi artefacte software open source ce vor sustine invatarea federata pentru predictia mobilitatii.
Problema adresata este intrinsec multidimensionala, fiind formata din aspecte legate de mobilitatea umana, algoritmi distribuiti si arhitecturi software. Astfel, pe langa dimensiunea generica mostenita de la problema oferirii de componente software pentru invatare automata (cum ar fi tipurile de algoritmi, date, sau predictie), oferirea de suport reutilizabil pentru invatare federata vine cu o serie de dimensiuni generice, precum modelul de partitie a datelor, constrangeri de securitate, cerinte de scalabilitate, etc. Aceasta complexitate aditionala poate deveni rapid coplesitoare pentru dezvoltatori si poate face ca abordarea invatarii federate sa ajunga sa fie considerata inabordabila. Astfel, obiectivul general al acestei teme este de a investiga gradul in care aceste dimensiuni pot fi generalizate, precum si modul in care ele interactioneaza si eventual interfereaza unele cu altele, atunci cand se creeaza o platforma software care sa suporte o varietate de solutii de invatare federata pentru analiza, modelarea si predictia datelor de mobilitate umana. Din punct de vedere practic, obiectivul este de a face abordarea invatarii federate mai inteligibila pentru dezvoltatorii care doresc sa o utilizeze. Pentru a atinge acest obiectiv, se va construi in mod incremental o platforma open source, pe masura ce se vor explora aspectele generice ale acestui spatiu multidimensional. Pentru a valida abordarea, se va folosi paltforma pentru a construi si rula diverse solutii de invatare federata si pentru a le evalua folosind mai multe seturi de date pentru trei scenarii concrete.


S11. Blockchain si dApp

Aceasta sectiune propune teme unde se cere implementarea unor aplicatii peste blockchain in diverse domenii.


T11.1: Digital badges

Coordonator: Ciprian Dobre

Numar studenti: 1

Open Badges reprezinta forma digitala de a dovedi abilitati la finalizarea unor cursuri sau forme de training. Insignele digitale bazate pe blockchain pot dovedi formarea profesionala si devin un portofoliu de acreditari verificabil si de incredere, unic pentru fiecare persoana. Tema propuse construirea unui DApp pentru Open Badges, iar ca studiu de caz vom lua in considerare scenariul acreditarii prin examinare a competentelor pentru un student din UPB.


T11.2: Digital diplomas

Coordonator: Ciprian Dobre

Numar studenti: 1

Tema propune constructia unui DApp pentru verificarea valabilitatii unor diplome emise de o institutie. Diplomele pot fi falsificate si un angajator de multe ori trebuie sa sune (si sa aiba incredere in persoana cu care vorbeste) institutia emitenta pentru respectiva diploma. Tema propune stocarea unor Digital Hashes in blockchain ca dovada a emiterii si legarea acestora in mod unic de institutie si diploma emisa, o constructie pentru verificarea digitala a identitatii emitatorului acelei diplome si cu dovada ne-falsificarii continutului acesteia.


T11.3: Digital escrow service

Coordonator: Ciprian Dobre

Numar studenti: 1

Un blockchain escrow este numit si “escrow descentralizat” si este echivalentul unui functionar de la banca ce verifica o tranzactie intre voi si banca (doua entitati care nu au incredere una intr-alta). Sa spunem ca vreti sa vindeti un NFT unui alt utilizator. Problema care apare este ca nu doriti sa cedati dreptul de proprietate (stocat tot in blockchain) asupra NFT-ului pana cand nu vedeti crypto-banii transferati in contul vostru, dar la fel cealalta parte nu doreste sa transfere nimic pana nu are dovada ca dreptul de proprietate se transfera ca urmare a tranzactiei. Escrow-ul este un serviciu intermediar intre aceste doua entitati care se asigura ca, la final, ambele parti isi “onoreaza” obligatiile. Tema propune constructia unui astfel de serviciu pentru tranzactionarea unor imagini (varianta simplificata a NFT-urilor).


S12. Platforme

Aceasta sectiune propune teme unde se cere implementarea unor platforme pentru diferite scopuri.


T12.1: Modul de colectare infrastructuri

Coordonator: Ciprian Dobre

Numar studenti: 2

Tema presupune crearea unei platforme pentru colectarea datelor privind ofertele de servicii, tehnologii si infrastructuri ale colectivelor de cercetatori din UPB. Ca si punct de inspiratie, puteti sa va uitati la https://eeris.eu/. Un cercetator se autentifica si apoi publica acces la o infrastructura, ce presupune o descriere a capabilitatilor, locatia unde se afla, si cum se poate accesa de la distanta infrastructura. Dupa, vom pune pe o harta a campusului UPB toate punctele de interes declarate. De exemplu, cineva interesat de oferta colectivelor de la Facultatea de Energetica se poate uita in acea facultate si poate descoperi toate serviciile curent disponibile.


T12.2: Jupyter Hub in UPB

Coordonatori: Ciprian Dobre, Radu-Ioan Ciobanu

Numar studenti: 2

Tema presupune instalarea unui infrastructuri de executie pe serverele UPB a unor servere Jupyter Hub (pentru executia de Jupyter Notebooks) care se vor integra cu sistemul de autentificare UPB, dar si cu un sistem de submitere spre executie a unor notebook-uri. Concret, se doreste crearea unui sistem de executie a unor notebook-uri, cum ar fi teme de casa, pe serverele UPB peste JHubs. Suplimentar (si optional), se poate integra si o componenta pentru notarea automata a notebook-urilor submise.

T12.3: e-Data

Coordonatori: Ciprian Dobre, Ion-Dorinel Filip

Numar studenti: 1-2

Tema de cercetare propune construirea unei solutii prin care un cercetator sa poata proba provenienta unui set de date. Presupuneti time datasets ca intrare, si as vrea sa adaug peste aceste date un markup care sa autentifice ca eu sunt autorul acelui set de date. Folosind NFT nu e suficient, pentru ca cineva poate prelua datele mele si le poate reordona sau modifica un pic (ultimul bit nesemnificativ la fiecare valoare), astfel incat statistica ramane aceeasi dar datele par noi si originale. Cum fac sa semnez datele, ca un fel de capsula de provenienta? Puteti in propunerile voastre sa va gânditi la folosirea blockchain, a unor functii homomorfe de criptare, folosirea unui bloom filter, sau chiar differential privacy.


T12.4: Living lab

Coordonator: Ciprian Dobre

Numar studenti: 1-2

Tema de cercetare presupune instalarea unei instante Moodle si implementarea unui serviciu de autentificare peste EduGAIN. EduGAIN este o platforma de federalizare a serviciilor de autentificare astfel incat un student din Franta, sa spunem, folosind credentialele din organizatia care l-a inrolat in Franta, sa se poata autentifica pe platforma Moodle de la UPB si sa acceseze cursuri. Solutia, bineinteles, trebuie sa si poata dispune de filtrarea drepturilor (studentul strain undeva, intr-un catalog de exemplu, trebuie sa apara ca fiind inrolat la respectivul curs).


S13. Invatare federata

Aceasta sectiune propune teme din domeniul invatarii federate.


T13.1: Blockchained On-Device Federated Learning

Coordonatori: Ciprian Dobre, Radu-Ioan Ciobanu

Numar studenti: 1-2

Tema propunere cercetarea unei arhitecturi de invatare aproape de date (federated learning) unde componenta de privacy este asigurata peste un ledger distribuit. Articolul de pornire pentru aceasta tema este acesta.


T13.2: Federated Learning for Healthcare Informatics

Coordonatori: Ciprian Dobre, Radu-Ioan Ciobanu

Numar studenti: 1-2

Tema propune crearea unor solutii de invatare cu consideratii de privacy, pentru zona datelor medicale. Articolul de pornire pentru aceasta tema este acesta.


T13.3: AI on the Move: From On-Device to On-Multi-Device

Coordonatori: Ciprian Dobre, Radu-Ioan Ciobanu

Numar studenti: 1-2

La ora actuala, multe calcule se duc dinspre Cloud spre Edge Computing, cat mai aproape de sursa generatoare a acelor date. Intr-un astfel de scenariu, tema propune cercetarea unei solutii de suport pentru un AI distribuit. Articolul de pornire pentru aceasta tema este acesta.


T13.4: Gait Recognition

Coordonatori: Ciprian Dobre, Radu-Ioan Ciobanu

Numar studenti: 1-2

Tema propune realizarea unei mini-aplicatii pentru recunoasterea afectiunilor asociate picioarelor. Aveti la dispozitie o camera Orbbec (dotata cu senzori de adancime) si trebuie sa construiti un avatar care sa instruiasca utilizatorul din fata camerei sa efectueze o serie de miscari. Utilizatorul apoi executa, si din ceea ce detectati, trebuie sa puneti un diagnostic daca utilizatorul are sau nu probleme cu articulatiile. Puteti face acest lucru inclusiv pe un Raspbery Pi, combinat cu o camera stereo.


T13.5: Protectia datelor personale

Coordonatori: Ciprian Dobre, Radu-Ioan Ciobanu

Numar studenti: 1-2

Tema propune investigarea unor tehnici de tip differential privacy pentru asigurarea increderii in date. Articolul de pornire pentru aceasta tema este acesta.


T13.6: Invatare federata oportunista

Coordonator: Radu-Ioan Ciobanu

Numar studenti: 2-3

Aplicatiile de calcul “pervasive” implica de obicei colectarea de date de la telefonul utilizatorului pentru a influenta comportamentul aplicatiei, care de multe ori invata din experientele utilizatorului pentru a oferi un comportament personalizat. In ultimii ani, invatarea federata a castigat amploare datorita capacitatii sale de a antrena modele partajate la nivel global pe datele private ale utilizatorilor, fara a le solicita utilizatorilor sa partajeze direct datele. Totusi, invatarea federata necesita ca dispozitivele sa colaboreze prin intermediul unui server central, in ideea ca toti utilizatorii vor invata acelasi model. Recent, s-a introdus un model nou numit “invatare federata oportunista”, unde dispozitive individuale apartinand utilizatorilor diferiti cauta sa invete modele robuste, personalizate la experientele proprii ale utilizatori lor. Cu toate acestea, in loc sa invete izolat, aceste modele incorporeaza in mod oportunist experientele altor dispozitive pe care le intalnesc. O astfel de abordare are potentialul de a amplifica performanta invatarii personalizate, rezistand in acelasi timp overfitting-ului pe datele intalnite. Ca un punct de start, va recomandam sa cititi acest articol.


T13.7: Detectie de anomalii folosind invatare federata nesupervizata

Coordonatori: Radu-Ioan Ciobanu, Ciprian Dobre

Numar studenti: 1-2

In majoritatea lucrarilor, invatarea federata se ocupa doar de sarcini supervizate, presupunand ca seturile de date pe care se aplica sunt etichetate. Aceasta tema implica extinderea paradigmei de invatare federata la sarcini nesupervizate prin abordarea detectiei anomaliilor in medii descentralizate. Ca un punct de start, va recomandam sa cititi acest articol.


%d bloggers like this: