S1. Platforma pentru administrarea rezultatelor cercetatorilor
Platforma CRESCDI (https://crescdi.pub.ro/) are rolul de a ajuta la administrarea rezultatelor de cercetare a membrilor UPB. Aceasta colecteaza diverse date (deja existente) ce caracterizeaza activitatea unui cercetator: publicatii stiintifice, brevete, proiecte de cercetare, etc. Temele din aceasta sectiune se refera la extinderea platformei cu diverse componente aditionale.
T1.1: Analiza de competente stiintifice I
Coordonator: Ciprian Dobre
Numar studenti: 1-2
Tema propune dezvoltarea unui algoritm de analiza a datelor si extragere automata a domeniilor de competenta. Pentru inceput, se vor extrage keyword-uri ce apar mai frecvent in articolele publicate (si unde apar, de exemplu titlul e mai important, sau in sectiunea Abstract, etc.). Pe marginea keyword-urilor si a relatiei de co-autorat, se va construi un algoritm de tip page rank care va putea fi folosit pentru cautari de articole. Pe marginea greutatii cuvintelor cheie, dorim apoi crearea unor harti de colaborare, pentru a putea identifica clustere de autori si/sau cercetatori avand interese similare. O alta directie posibila a temei presupune implementarea de algoritmi NLP pentru a extrage arii de competente (daca autorul publica mai multe articole unde in abstract apar mai des cuvintele “data mining” – atentie, nu doar “data” – e clar ca cercetatorul e interesat de acest subiect in cercetare). Vrem sa putem automatiza recunoasterea unor colective de cercetarori pe arii de competente (sa putem raspunde la intrebarea: “Cine din UPB are cercetari in zona de quantum computing?”, de exemplu).
T1.2: Analiza de competente stiintifice II
Coordonator: Ciprian Dobre
Numar studenti: 1-2
In relatie cu tema “Analiza de competente stiintifice I”, se doreste dezvoltarea de componente Web (preferabil React) pentru vizualizarea agregata a rezultatelor stiintifice. Se porneste de la reteaua de colaborare si cuvintele cheie (respectiv domeniile pe care autorii publica), si se doreste crearea unor reprezentari agregate precum:

T1.3: Platforma de adaugare apeluri de cercetare
Coordonator: Ciprian Dobre
Numar studenti: 2
Se porneste de la platforma https://competitions.crescdi.pub.ro/, ce permite adaugarea unor competitii de granturi de finantare a cercetarii si diseminarea acestora catre comunitatea UPB. Platforma se va reface peste tehnologii mai noi, gen C# (backend) si React (frontend) – puteti folosi pentru inspiratie si https://ncp.uefiscdi.ro/apeluri.
T1.4: Profilul stiintific al doctorandului si al conducatorului de doctorat
Coordonatori: Florin Pop, Bogdan-Costel Mocanu
Numar studenti: 1-2
T1.5: Export CV
Coordonatori: Ciprian Dobre, Florin Pop
Numar studenti: 1
Datele pentru un cercetator stocate in platforma CRESCDI includ toate realizarile acestuia, printre care amintim: publicatii, proiecte, brevete, colaborari academice, realizari academice, activitati de management universitar, colaborari cu studentii, apartenenta la diverse asociatii profesionale, etc. Profilul poate fi vizualizat, dar se doreste realizarea unei componente pentru generarea si exportul CV-ului unui cercetator in format PDF din aceasta platforma. Se poate considera si exportul in format LaTeX conform unui sablon definit. Pentru aceasta, cercetatorul poate avea un formular prin care isi poate configura (selecta) datele pe care doreste sa le includa in acest CV.
T1.6: Conector cu datele din Semantic Scholar
Coordonator: Ciprian Dobre
Numar studenti: 1
Articolele publicate de diversi autori se pot regasi in diverse repository-uri de date publice, precum Semantic Scholar, care expune si un REST API. Lucrarea presupune crearea unui crawler pentru acest depozit de date, respectiv legarea datelor obtinute de profilele cercetatorilor UPB.
T1.7: Smart Data Import
Coordonatori: Ciprian Dobre
Numar studenti: 1
Datele pentru un cercetator stocate in platforma CRESCDI includ toate realizarile acestuia si, in general sunt aduse fie automat prin diverse mecanisme de agregare de date din biblioteci digitale, fie prin introducerea manuala, urmata de procesarea acestora in cadrul platformei. Scopul proiectului Smart Data Import este acela de a ajuta un cercetător in procesul de incarcare manuala a datelor. Pentru categorii precum studenti indrumati sau participari in comitete de program pentru conferinte, dar si multe altele care pot fi analizate in cadrul acestui proiect, se poate oferi posibilitatea descarcarii unui sablon (in format Excel, CSV), apoi cercetatorul completeaza datele offline si se poate trece la incarcarea acestuia in platforma.
T1.8: Corectie de date
Coordonatori: Ciprian Dobre
Numar studenti: 3-4
In platforma CRESCDI, avem o serie de date, de la publicatii ale cadrelor didactice, proiecte in care au colaborat, pana la diverse activitati cu studentii. Toate aceste date pot fi analizate pentru: 1) o curatare automata, si 2) extragerea unor informatii de interes. Subiectul temei poate merge in oricare dintre cele doua directii. De exemplu, curatarea de date presupune implementarea unor algoritmi de verificare a datelor de intrare: dacă un articol este adus si din sursa X (de exemplu, Google Scholar) si din sursa Y (de exemplu, Scopus), si e vorba de acelasi autor si aceeasi conferinta, daca titlurile aduse se potrivesc 70-80% e clar ca este unul si acelasi articol si se va adauga o singura data in baza de data. Sau, vom adauga un camp in interfata de administrare prin care sa putem specifica dinamic un nomenclator de termeni, sa putem sa precizam manual cumva ca University Politehnica of Bucharest este acelasi string cu Politehnica University of Bucharest (ambele sunt intalnite ca afiliere a autorilor din UPB, dar reprezinta una si aceeasi institutie, nu ar trebui sa fie adaugata de mai multe ori).
T1.9: Administrare CRESCDI
Coordonatori: Ciprian Dobre, Andrei Crividenco
Numar studenti: 1-2
La nivelul platformei CRESCDI exista o interfata minimala de administrare a datelor. Tema propune refacerea si extinderea acesteia, in scopul de a avea o interfata Web de administrare a unor nomenclatoare de cunostinte. De exemplu, daca se modifica denumirea unei facultati din UPB, in interfata de administare ar trebui sa pot actualiza denumirea (sa nu fac acest lucru doar modificand in baza de date). La fel, poate mai apare un Centru de Cercetare, se modifica numele unui program de studii, etc. Toate aceste informatii se vor administra din acest punct de intrare.
T1.10: Modul de raportari
Coordonatori: Ciprian Dobre, Silviu Pantelimon
Numar studenti: 1
Aveti la dispozitie date intr-o DB separata de CRESCDI si populata cu rezultatele privind activitatile CDI ale cercetatorilor din UPB. Se dau modele de raportari si se cere dezvoltarea unei aplicatii de export in format XLS a datelor prelucrate – de exemplu, in functie de factorul de impact al jurnalului, o activitate poate primi un alt punctaj pentru o fisa de raportare (toate aceste reguli vor fi furnizate apriori studentului).
S2. Sisteme de calcul cloud/edge si aplicatii distribuite, inclusiv Big Data
Odata cu proliferarea sistemelor de calcul neconventionale, sistemele de calcul de tip cloud/edge sunt folosite pe scara larga in rezolvarea problemelor de stocare si procesare de date in contexte diferite si cu cerinte variate. Modelarea si analiza performantelor sunt elementele cheie pentru aceste sisteme, analiza experimentala pe cazuri reale dar si simulate oferind de asemenea un mod de validare. Aplicatiile care au la baza aceste sisteme, inclusive aplicatiile Big Data, sunt supuse provocarilor de consistenta de date, offloading, procesare distribuita, persistenta, toleranta la defecte, constrangeri diferite de executie (timp, resurse, energie).
T2.1: Analiza performantelor aplicatiilor compuse din microservicii in edge computing
Coordonatori: Ion-Dorinel Filip, Florin Pop
Numar studenti: 1-2
In acest proiect, propunem studentilor interesati de sistemele distribuite bazate pe tehnologii edge computing o analiza a felului in care acestea pot fi realizate si interopereaza atunci cand sunt descrise ca microservicii. Pe langa o analiza critica si realizarea unui model matematic extins care sa expuna oportunitatile de analiza a performantelor aplicatiilor compuse din microservicii in sistemele edge computing, propunem dezvoltarea/extinderea unei aplicatii sau a unui simulator de scenarii cloud/edge care sa permita evaluarea cat mai extensiva si mai corecta a performantelor unui astfel de sistem, atat pentru teste sintetice (in dezvoltarea carora se pot surprinde atat trasaturi modelate matematic/probabilistic, cat si bazate pe trace-uri reale ale unor aplicatii cloud), cat si pentru cazuri de utilizare concrete (ce pot fi alese de catre student). Ca un punct de start, va recomandam sa cititi acest articol.
T2.2: Balansarea disponibilitatii si costurilor intr-un sistem cloud cu preturi variabile
Coordonator: Florin Pop
Numar studenti: 1-2
Costurile dinamice ale sistemelor Cloud, cum ar fi Amazon’s Spot Instances, au preturi care variaza in functie de cerere. Acest lucru ar putea provoca o volatilitate ridicata a preturilor, ceea ce duce la intreruperea executiei mai des decat se poate astepta. Scopul acestui proiect este de a dezvolta un planificator care poate satisface anumite capacitati de resurse (de exemplu, memorie si procesor) pentru joburile noastre cu o probabilitate specifica, astfel incat acestea sa fie neintrerupte din executie pentru urmatoarea perioada de timp (de exemplu, o zi). Fiecare sistem cloud este alcatuit din mai multe piete definite in functie de locatie si tipul de resursa. Fiecare job poate fi mutat de la o locatie la alta prin pornirea si oprirea sa. O aplicatie tipica ce ar beneficia de aceasta poate fi una map-reduce sensibila la timp, in cazul in care, daca un nod este oprit, se aplica o penalizare pentru restabilirea starii sale de pe disc (atat ca timp cat si ca latime de banda). Prin mutarea dinamica a instantelor catre piete mai sigure (care ar putea costa mai mult), costul job-urilor Big Data poate fi redus, prin urmare se realizeaza un compromis intre cost si disponibilitate. Se pot efectua executari suplimentare pentru joburi care sunt legate de o anumita locatie prin ajustarea dinamica a timpului instantaneu la volatilitatea pietei pentru a reduce pierderile de executie sau prin duplicarea locurilor de executie pe diferite piete pentru a preveni pierderea disponibilitatii.
T2.3: Pure Nash equilibrium and bin-packing scheduling optimization
Coordonatori: Florin Pop, Ion-Dorinel Filip
Numar studenti: 1-2
Problema planificarii in sisteme distribuite este una NP-hard, de aceea algoritmii de optimizare (multi-criteriala si multi-obiectiv) fac de cele mai multe ori apel la algoritmi de aproximare. Proiectul isi propune analiza modelelor de optimizare a planificarii unui set mare de task-uri (de exemplu procesare video) si considerarea unui model de echilibre Nash pentru aceasta problema. Pentru validare, vom folosi tehnici formale si simulatoare de sisteme distribuite (CloudSim, simulatoare de P2P).
T2.4: Alocarea de resurse edge cu constrangeri de consum de energie
Coordonator: Florin Pop, Bogdan-Costel Mocanu
Numar studenti: 1-2
Tema proiectului este investigarea si propunerea unor metode de alocare a resurselor (masini virtuale, noduri fog, dispozitive edge ca Raspberry Pi) si planificarea aplicatiilor intr-un sistem cloud/fog/edge, considerand drept constrangeri consumul minim (sau unul impus) de energie. Se va porni de la modelele existente si se vor analiza posibilitati de extindere tinand cont de noi metrici de optimizare precum energia consumata per unitate de procesare sau per masina virtuala. De exemplu, pentru un datacenter, se vor considera solutii de replicare a masinilor virtuale, iar pentru nodurile fog/edge, offloading-ul de aplicatii. Se vor investiga modele matematice existente pentru consumul de energie. Se vor considera urmatoarele: definirea problemelor de optimizare, identificarea unor limite admisibile (inferioare si superioare), algoritmi de aproximare, simularea modelelor propuse.
T2.5: Analiza performantelor sistemelor cloud/edge folosind cozi M/M/k/k si M/M/∞/k
Coordonatori: Florin Pop, Ion-Dorinel Filip
Numar studenti: 1-2
Teoria cozilor reprezinta un instrument de modelare si analiza a performantelor, precum si pentru optimizarea sistemelor de calcul. Proiectul propus este unul teoretic si are ca scop definirea unui model pentru sistemele cloud/edge folosind lanturi Markov continue, modelul fiind unul general (Jackson Network of Queues), adaptarea acestuia, definirea metricilor de evaluare a performantelor, precum si a situatiilor limita. Proiectul presupune cunoasterea de baza a limbajului Matlab pentru modelarea sistemelor de ecuatii liniare.
T2.6: Serviciu de stocare pentru edge computing
Coordonatori: Florin Pop, Catalin Negru
Numar studenti: 1-2
Edge computing este un model de calcul care isi propune procesarea datelor in apropierea surselor de date. Acest proiect isi propune sa creeze un serviciu de stocare pentru aplicatiile de tipe edge computing. Nevoia unui serviciu de stocare destinat acestui tip de aplicatii vine din urma faptului ca acestea au cerinte si caracteristici speciale, cum ar fi latenta scazuta, localitatea datelor sau geo-referentiere, si lucreaza in principal cu date spatio-temporale. Proiectul va fi dezvoltat pe dispozitive Raspberry Pi care vor juca rolul unor dispozitive Set-Top Box din modelul edge computing.
T2.7: Procesare si invatare distribuita in sisteme cloud/edge
Coordonator: Florin Pop
Numar studenti: 1-2
Desi procesarea in flux a datelor devine din ce in ce mai populara, exista o lipsa de suport in ceea ce priveste cerintele sale in timp real in medii eterogene distribuite geografic (cum ar fi cloud-urile). Mai mult, exista o lipsa de intelegere a relatiei dintre planificarea in timp real si cerintele analitice de procesare si alte valori importante, cum ar fi calitatea datelor, dimensiunea stocarii si costurile de procesare in spatiul de optimizare multi-obiectiv al diverselor infrastructuri federate de astazi pentru aplicatii Big Data. Vom investiga proiectarea unei platforme pentru procesarea in timp real a seturilor de date folosind un set de algoritmi de planificare dedicati combinati cu tehnici adaptive de alocare a resurselor. Euristicile de planificare determina ce sarcina de procesare a datelor sa se execute in fiecare moment, in timp ce tehnicile de alocare a resurselor decid ce resurse (cloud sau edge) sa se furnizeze automat. Ambele componente vor utiliza un cadru de optimizare multi-obiectiv simultan pentru o serie de obiective conflictuale, cum ar fi timpul de procesare, costurile de calcul, spatiul de stocare si calitatea datelor. Optimizarea va dezvalui un set de solutii de planificare si alocare a resurselor, exploatate pentru a indeplini constrangerile in timp real ca raspuns la variabilitatea incarcarii din sursele de date dinamice si solicitarile utilizatorilor.
T2.8: Planificare inteligenta si adaptiva
Coordonatori: Florin Pop, Bogdan-Costel Mocanu
Numar studenti: 1-2
Cercetarile existente in optimizarea algoritmilor de planificare sunt in mare parte limitate la doua obiective si utilizeaza metode a-priori care nu se apropie de frontiera Pareto (un set de solutii pentru o problema de optimizare cu mai multe criterii, reprezentand compromisuri intre obiective), dar au ca scop gasirea unei singure solutii de compromis prin agregare sau planificare constransa. Mai mult, majoritatea lucrarilor existente vizeaza planificarea aplicatiilor catre resurse si nu vizeaza procesarea in timp real a datelor intr-o infrastructura cloud distribuita. Din cate stim, nu exista lucrari care sa aiba ca scop extinderea euristicii planificarii in timp real pentru a aproxima setul complet de solutii de compromis intr-un spatiu cu patru dimensiuni care cuprinde timp de procesare in timp real in combinatie cu costurile de stocare si procesare, precum si calitatea datelor ca o masura speciala QoS (calitatea serviciului). Proiectul nostru va fi prima abordare cu adevarat multi-obiectiva capabila sa optimizeze setul de solutii de compromis in ceea ce priveste procesarea in timp real in sistemele cloud si sa implice patru obiective contradictorii: timpul, costul, stocarea si calitatea datelor. Vom extinde modelul de planificare pentru a sprijini diferite scenarii pentru diferite tipuri de aplicatii: NLP (procesarea limbajului natural), rutare auto, interactiuni sociale online, etc.
T2.9: Stocarea si analiza de date provenite de la o platforma de tip IoT
Coordonatori: Florin Pop, Ion-Dorinel Filip
Numar studenti: 1-2
Datele provenite de la senzori conectati la Internet (IoT) prezinta un pattern deosebit, iar problema stocarii si analizei acestora este, de cele mai multe ori, asociata conceptului de Big Data, atat datorita fluxului mare de date, cat si a necesitatii analizarii datelor conform unor modele cu cerinte deosebite (real-time sau streamline processing). Proiectul isi propune realizarea, sub forma unei suite de microservicii, a unei platforme integrate pentru conectarea dispozitivelor IoT, cat si pentru stocarea si analiza datelor. Ca parte a realizarii proiectului, se vor defini cerintele functionale si nefunctionale ale unei astfel de platforme, se vor defini primitivele de formatare si clasificare a datelor, precum si mecanismele de autentificare si securitate asociate, pe baza solutiilor existente (protocoale si componente software open-source sau freeware). Pentru realizarea proiectului, sunt sugerate studiul si utilizarea mai multor tehnologii precum Docker, baze de date de tip time-series (precum InfluxDB, Graphite sau OpenTSDB), protocoale lighweight pentru mesaje (ca MQTT), precum si platforme pentru vizualizarea si analiza seriilor temporale de date (precum Grafana).
T2.10: Contracte inteligente pentru planificarea si gestiunea resurselor
Coordonatori: Florin Pop, Liviu Hartan
Numar studenti: 1-2
Tehnologia bazelor de date distribuite (Distributed Ledger Technology – DLT) este un sistem in care aceeasi baza de date este distribuita unui set de dispozitive numite noduri. Fiecare dintre aceste noduri stocheaza si actualizeaza acelasi registru sau baza de date, in functie de modificarile din retea. Specific acestei tehnologii este faptul ca nu exista o autoritate centralizata, astfel incat fiecare nod poate actualiza baza de date si celelalte verifica integritatea. Un exemplu este contractul inteligent, un program conceput pentru a facilita, verifica sau aplica negocierea sau executarea unui contract. Contractele inteligente permit executarea tranzactiilor de catre terti intr-un sistem de executie de aplicatii si gestiune a resurselor. Aceste tranzactii sunt publice si ireversibile. Printre tehnologiile bazate pe blockchain care permit implementarea contractelor inteligente, putem enumera Bitcoin, Ethereum, Burstcoin si Quora. Avantajele unui contract inteligent includ minimizarea riscului ca celalalt membru al tranzactiei sa nu isi indeplineasca promisiunea, sa reduca timpul de tranzactionare si sa creasca transparenta. Ne propunem sa studiem problema planificarii aplicatiilor si gestionarii resurselor guvernate de contracte inteligente.
T2.11: Interconectarea centrelor de date
Coordonatori: Florin Pop, Alexandru-Ionut Mustata
Numar studenti: 1-2
Centrele de date (datacenters) stau la baza sistemelor cloud. Din ce in ce mai multe modele de stocare si prelucrare de date au trecut in modul mobil (colectand date si procesandu-le in timp real). Conectivitatea este o proprietate importanta, asigurand consistenta si disponibilitatea datelor. In contextul mobilitatii, consumul de energei este important, asigurand disponibilitatea datelor si nodurilor de procesare. Ne propunem un studiu al topologiilor de interconectare a diferitelor centre de date, identificarea unor avantaje si dezavantaje, studiul unor functii de consum de energie. Identificarea unor topologii logice care sa tina cont de tehnologiile existente si de constrangerile din sistem pot ajuta la stabilirea unor decizii de proiectare.
T2.12: Optimizarea consumului de energie in sisteme cloud/edge
Coordonatori: Florin Pop, Alexandru-Ionut Mustata
Numar studenti: 1-2
Un consum eficient de energie poate fi privit ca o problema de optimizare consiferand un set de constrangeri (capacitatea de procesare, de stocare, latimea de banda, ratele de transfer, starea legaturilor in retea). In aceasta descriere, ne propunem sa minimizam functii care modeleaza consumul de energie in functie de diferite criterii si combinatii intre acestea. Optimizarea devine mai interesanta atunci cand consideram sistemele slab cuplate, cum sunt cele de tipul edge computing, care sunt conectate cu sistemele de tip cloud. Modelele liniare de optimizare a consumului energetic nu scot intotdeauna in evidenta modelele reale, dar ne dorim sa evaluam acuratetea acestora. Ne propunem sa definim si sa analizam problema de optimizare incepand cu un criteriu, apoi combinand cu mai multe, aducand si constrangeri de diverse tipuri in calcul.
T2.13: Mecanisme de incredere si reputatie pentru sisteme edge
Coordonatori: Bogdan-Costel Mocanu, Florin Pop
Numar studenti: 1-2
Din cauza caracterului deschis al sistemelor edge, credibilitatea nodurilor poate fi contestata. Acestea pot fi noduri malitioase sau noduri infectate care distribuie informatii eronate si pot compromite la randul lor alte noduri. O modalitate de adresare a acestui dezavantaj poate fi utilizarea unei arhitecturi in care fiecare nod al sistemului poate fi la un moment dat corupt sau malitios (Zero Trust Architecture). Ne propunem studierea aprofundata a mecanismelor existente pentru stabilirea increderii si reputatiei nodurilor (de exemplu, EigenTrust, PeerTrust, etc), urmand testarea acestor mecanisme in medii de lucru simulate (precum TRM-SimWSN). Ulterior, ne propunem sa identificam scenarii reale de lucru ale acestor mecanisme de incredere si reputatie si testarea lor prin introducerea unor constrangeri sau relaxari in functie de scenariul propus.
T2.14: Analiza performantelor metodelor numerice pentru functii
Coordonator: Florin Pop
Numar studenti: 1-2
Proiectul isi propune analiza performantelor unor metode numerice cunoscute pentru functii (interpolari, integrari numerice, aproximari FFT, etc.) cu scopul identificarii unor aspecte legate de convergenta si stabilitate numerica si, pe baza rezultatelor obtinute, propunerea unor metode numerice noi. De exemplu, pentru interpolare sau integrare numerica, putem dubla in rafala punctele folosite ca suport. Se are in vedere un set de functii continue/discrete specifice, folosite adesea in evaluarile numerice. Doua exemple de aplicatii vor considera: analiza fluxurilor audio (de exemplu cate persoane vorbesc in camera si cine in ce interval de timp); analiza imaginilor (aplicarea diverselor filtre cu scopul de restaurare a imaginilor vechi). Proiectul va necesita utilizarea Python/Octave pentru implementare si testare.
T2.15: Analiza performantelor metodelor de planificare in cazul sarcinilor de lucru cu dependente de tip DAG (graf orientat aciclic) / framework de simulare pentru algoritmi de planificare
Coordonatori: Alexandru-Ionut Mustata, Florin Pop
Numar studenti: 1-2
Proiectul isi propune studierea si implementarea metodelor existente de planificare pentru a analiza performanta acestora pe grafuri cu dependente de tip DAG (graf orientat aciclic). Proiectul poate fi privit ca un framework de planificare de sarcini de lucru, deoarece este necesara implementarea unei interfete web de control in care utilizatorul isi va putea defini probleme de planificare (grafuri de sarcini de lucru), va putea selecta algoritmi de planificare care sa fie utilizati pentru a rezolva problema, si se vor putea vedea comparatii utilizand rezultatele anterioare (rezultatele vor fi salvate intr-o baza de date sub forma de tuplu [input_problema, algoritm, rezultat]). Pentru comparatie, se vor crea grafice comparative in functie de diferite criterii (makespan, numarul de task-uri finalizate fara penalitati sau pana la atingerea timpului limita, etc.).
T2.16: Portofoliu cu instrumente de procesare imagini satelitare folosind Jupyter Notebooks
Coordonator: Florin Pop
Numar studenti: 2-3
Imaginile satelitare ne ofera informatii (chiar daca nu in timp real) cu privire la mediul inconjurator si la diferite aspecte ale mediului in care traim. In acest proiect, propunem studentilor familiarizarea cu produsele de tip imagine satelitara, in vederea obtinerii unui set de instrumente/procesari semi-automate, destinate publicului specializat, care sa ofere un punct de pornire in valorificarea eficienta a setului de date satelitare disponibile (Landsat, Copernicus), cat si in alte surse similare la care avem acces. Pentru realizarea acestui portofoliu, propunem prezentarea lui sub forma unui set de aplicatii Python, prezentate publicului prin intermediul Jupyter Notebooks. Exemple de instrumente de procesare include: calculul NDVI/NDWI pentru analiza starii vegetatiei, calculul mastii de padure/vegetatie/apa, catalogarea tipurilor de sol, detectia schimbarilor intr-un set de date, clusterizarea de imagini satelitare, aplicatii din agricultura si multe altele. Desigur, propunerile voastre sunt binevenit si le vom analiza impreuna.
T2.17: Administrarea workflow-urilor de microservicii pentru platforme Cloud/Edge
Coordonatori: Catalin Negru, Florin Pop
Numar studenti: 1-2
Noile tendinte in procesarea distribuita presupun plasarea resurselor (stocare si procesare) la marginea retelelor (Edge) aproape de sursa datelor. De asemenea, aplicatiile monolit traditionale care ruleaza pe platformele Cloud sunt descompuse in microservicii care au un caracter atomic, sunt izolate si ruleaza in containere, aducand noi provocari de cercetare, cat si oportunitati de optimizare a resurselor pentru o mare varietate de aplicatii, incluzand cele cu termen limita de rulare / SLA, precum streaming video, invatare automata pentru aplicatii complexe in timp real si multe alte prelucrari de calcul intensiv care pot fi descarcate in Cloud. In aceste conditii, sistemele de gestionare a resurselor necesita noi modele pentru (1) orchestrare si planificare de microservicii folosind metode avansate de planificare; (2) folosirea eficienta a resurselor eterogene de calcul Cloud-Edge.
T2.18: Platforma distribuita pentru coordonare si negociere intre agenti
Coordonatori: Catalin Negru, Florin Pop
Numar studenti: 1-2
Coordonarea distribuita reprezinta actul de gestionare a interdependentelor dintre functii si activitati desfasurate pentru atingerea scopurilor intr-un sistem distribuit. Urmatoarele mecanisme pot fi aplicate pentru coordonarea dependentelor dintre functii si activitati: Supravegherea Directa, Standardizarea Muncii, Standardizarea Rezultatelor, Standardizarea Competentelor si Ajustarea Reciproca. Proiectul isi propune implementarea unei platforme distribuite care sa aplice unul din mecanismele mentionate pentru coordonarea activitatilor. De asemenea, va urmari sa implementeze si mecanisme de negociere intre agenti pentru a rezolva o problema comuna.
S3. Aplicatii inteligente
Aceasta sectiune propune implementarea de aplicatii inteligente folosind Python si biblioteci specifice de ML si NLP.
T3.1: Network-aware harmful content mitigation on social media
Coordonatori: Ciprian-Octavian Truica, Elena-Simona Apostol
Numar studenti: 1-2
Harmful content consists of different types of textual data (e.g., hate speech, misinformation, fake news) that causes a person distress or harm, having a negative impact on the individual mental health, with even more detrimental effects on the psychology of kids and teenagers. This topic aims to design and implement new Network Analysis and Graph Mining models and strategies for mitigating the spread of harmful content on social media using information extracted from the diffusion medium. Implementation language: Python. Libraries: Scikit-learn, PyTorch, Keras with Tensorflow, etc. Storage and distribution technologies: MongoDB, Spark, Hadoop Ecosystem, etc.
T3.2: Network-aware fake news mitigation on social media
Coordonatori: Ciprian-Octavian Truica, Elena-Simona Apostol
Numar studenti: 1-2
Fake news consists of news that is intentionally and verifiably false, and which could mislead readers by presenting alleged, imaginary facts about social, economic and political subjects of interest. This topic aims to design and implement new Network Analysis and Graph Mining models and strategies for mitigating the spread of fake news on social media using information extracted from the diffusion medium. Implementation language: Python. Libraries: Scikit-learn, PyTorch, Keras with Tensorflow, etc. Storage and distribution technologies: MongoDB, Spark, Hadoop Ecosystem.
T3.3: Context and network-aware fake news detection and mitigation
Coordonator:i Ciprian-Octavian Truica, Elena-Simona Apostol
Numar studenti: 1-2
Fake news consists of news that is intentionally and verifiably false, and which could mislead readers by presenting alleged, imaginary facts about social, economic and political subjects of interest. This topic aims to design new Natural Language Processing, Machine Learning, Deep Learning, Network Analysis, and Graph Mining models, techniques, and strategies that use context and network information for mitigating the spread of fake news on social networks. Implementation language: Python. Libraries: Scikit-learn, PyTorch, Keras with Tensorflow, etc. Storage and distribution technologies: MongoDB, Spark.
T3.4: Aspect-based sentiment analysis for online reviews
Coordonatori: Ciprian-Octavian Truica, Elena-Simona Apostol
Numar studenti: 1-2
Aspect-based sentiment analysis (ABSA) is the task of identifying coarse-grained or fine-grained opinion polarity towards a specific aspect associated with a given target. Thus, the main objective of ABSA is to identify the entity E and attribute A pairs towards which an opinion is expressed in each sentence and determine the opinion’s polarity. This research topic aims to design new Natural Language Processing, Machine Learning, and Deep Learning techniques in order to determine accurately the fine-grained opinion polarity from online reviews. Implementation language: Python. Libraries: Scikit-learn, PyTorch, Keras with Tensorflow, etc. Storage and distribution technologies: MongoDB, Spark, Hadoop Ecosystem, etc.
T3.5: Text simplification
Coordonatori: Ciprian-Octavian Truica, Elena-Simona Apostol
Numar studenti: 1-2
Text Simplification is the process of reducing the linguistic complexity of a text, while retaining the original information content and meaning. This topic aims to design new Natural Language Processing, Machine Learning, and Deep Learning models and techniques that successfully manage to simplify textual content. Implementation language: Python. Libraries: Scikit-learn, PyTorch, Keras with Tensorflow, etc. Storage and distribution technologies: MongoDB, Spark, Hadoop Ecosystem, etc.
T3.6: Text summarization
Coordonatori: Ciprian-Octavian Truica, Elena-Simona Apostol
Numar studenti: 1
Text Summarization is the process of extracting a summary of a text while conveying to the reader the most important points of information contained within the text. Currently, there are multiple two main approaches for Text Summarization: extractive and abstractive. Extractive summarization employs different techniques for ranking the textual content, while abstractive uses generative neural models for creating summaries. This project aims to design new Natural Language Processing, Machine Learning, and Deep Learning models and techniques that successfully manage to summarize textual content. Implementation language: Python. Libraries: Scikit-learn, PyTorch, Keras with Tensorflow, etc. Storage and distribution technologies: MongoDB, Spark, Hadoop Ecosystem, etc.
T3.7: Domain-specific multi-word extraction and abbreviation disambiguation for e-health
Coordonatori: Ciprian-Octavian Truica, Elena-Simona Apostol
Numar studenti: 1-2
Hospitals collect huge amounts of data about their patients every year, in various ways. Such massive sets of data can provide great knowledge and information which can improve the medical services, and overall the healthcare domain, such as disease prediction by analyzing the patient’s symptoms or disease prevention, by facilitating the discovery of behavioral factors that can turn into risk factors for disease. Unfortunately, only a relatively small volume of e-Health data is processed and interpreted, an important factor being the difficulty in efficiently performing Big Data operations, and that often this data, even if anonymous, is hard to obtain. This topic aims to design and implement new Natural Language Processing, Machine Learning, and Deep Learning methods and models for disambiguating abbreviations and extracting domain-specific multi-words to better understand medical documents and correlate medical terms with their meaning. Implementation language: Python. Libraries: Scikit-learn, PyTorch, Keras with Tensorflow, etc. Storage and distribution technologies: MongoDB, Spark, Hadoop Ecosystem.
T3.8: Anomaly detection for time series
Coordonatori: Ciprian-Octavian Truica, Elena-Simona Apostol
Numar studenti: 1-2
An outlier or an anomaly is a data point that significantly differs from other observations in a Time Series. Outliers can appear due to an experimental error or an anomaly in the measurement. Such suspicious points in the Time Series data must be identified and interpreted separately in order not to interfere with the analysis step and lead to wrong conclusions. The aim of this research topic is to develop new Anomaly Detection models and techniques using Statistics, Machine Learning and Deep Learning. Implementation language: Python. Libraries: Scikit-learn, PyTorch, Keras with Tensorflow, etc. Storage and distribution technologies: MongoDB, Spark, Hadoop Ecosystem.
T3.9: Change point detection for time series
Coordonatori: Ciprian-Octavian Truica, Elena-Simona Apostol
Numar studenti: 1-2
The problem of change point detection in Time Series data deals with finding the point in time when the properties (e.g., mean, variance, etc.) of the Time Series change abruptly. Thus, a change point is a transition point between different states or continuous segments in the Time Series data. The aim of this research topic is to develop new Change Point Detection models and techniques using Statistics, Machine Learning and Deep Learning. Implementation language: Python. Libraries: Scikit-learn, PyTorch, Keras with Tensorflow, etc. Storage and distribution technologies: MongoDB, Spark, Hadoop Ecosystem.
T3.10: Enhancing scientific collaborations
Coordonatori: Ciprian-Octavian Truica, Elena-Simona Apostol
Numar studenti: 1
Scientific output has grown exponentially in the last few years. As the number of papers has risen, there is a need to design new algorithms that integrate both graph structure and textual content to automatically analyze the scientific output and propose new work collaborations. This project aims to design 1) new Natural Language Processing, Machine Learning, and Deep Learning techniques for analyzing the scientific papers’ textual content, and 2) new Graph Mining techniques for proposing new collaborations for scientists. Implementation language: Python. Libraries: Scikit-learn, PyTorch, Keras with Tensorflow, etc. Storage and distribution technologies: MongoDB, Spark, Hadoop Ecosystem.
T3.11: Semantic change detection
Coordonatori: Ciprian-Octavian Truica, Elena-Simona Apostol
Numar studenti: 1-2
Semantic Change deals with the evolution of language over time. The main objective is to determine any changes that appear in historical data in the meaning of words. This research topic aims to design new Natural Language Processing, Machine Learning, and Deep Learning techniques based on word and transformer embeddings in order to determine accurately diachronic information. Implementation language: Python. Libraries: Scikit-learn, PyTorch, Keras with Tensorflow, etc. Storage and distribution technologies: MongoDB, Spark, Hadoop Ecosystem, etc.
T3.12: AI-based conversational agents for claim verification
Coordonatori: Ciprian-Octavian Truica, Elena-Simona Apostol
Numar studenti: 1
On social media, users use different claims to inform or even influence their followers. Sometimes, these claims present information that might be partially true or false. The aim of this project is to design an AI-based conversational agent (ChatBot) to verify the veracity of claims. Implementation language: Python. Libraries: RASA-NLU, Scikit-learn, PyTorch, Keras with Tensorflow, etc. Storage and distribution technologies: MongoDB, Spark, Hadoop Ecosystem, etc.
S4. IoT si AAL
Temele din aceasta categorie fac parte din domeniile Internet of Things si Ambient Assisted Living.
T4.1: Acces open la date IoT
Coordonatori: Ciprian Dobre, Dorinel Filip
Numar studenti: 1
Avem in prezent instalati diversi senzori in cadrul facultatii: senzori ambientali (ce preiau date despre temperatura, presiune, umiditate, etc), de tip people counter, senzori de parcare (montati in parcarea PRECIS), senzori de gunoi (vedeti pubelele din fata PRECIS), senzori de tip smart agriculture, etc. Toti acesti senzori dau date ce sunt colectate (peste LoRA) intr-un InfluxDB si o platforma Grafana. Ne intereseaza dezvotarea de REST API peste date prin care sa permitem un acces deschis, pe baza de credentiale (integrare cu login.upb), la datele colectate. Scopul e sa permitem diverselor colective de cercetatori din UPB sa vizualizeze si sa lucreze cu datele colectate si furnizate. Cererile vor avea diverse filtre (gen perioada de timp) sau paginare si altele.
T4.2: Aplicatie pentru monitorizarea unei turme de oi
Coordonator: Ciprian Dobre
Numar studenti: 1-2
Tema propune dezvoltarea unei platforme IoT distribuite, care sa ajute la monitorizarea unei turme de oi. Instaland la urechea unei oi un mic dongle (crotal) echipat cu BLE sau RFID, se doreste realizarea unei aplicatii de supraveghere a efectivului de animale (cate pleaca ziua si cate intra seara in tarc).
T4.3: Monitorizare cladiri inteligente
Coordonator: Ciprian Dobre
Numar studenti: 1-2
Avem in prezent instalati diversi senzori in cadrul facultatii: senzori ambientali (ce preiau date despre temperatura, presiune, umiditate, etc), de tip people counter, senzori de parcare (montati în parcarea PRECIS), senzori de gunoi (vedeti pubelele din fata PRECIS), senzori de tip smart agriculture, etc. Toti acesti senzori dau date ce sunt colectate (peste LoRA) intr-un InfluxDB si o platforma Grafana. Ne interesează dezvotarea unor solutii de vizualizare agregată a informatiilor, de exexemplu sa vedem cladirea si, daca dam zoom pe un etaj, sa descoperim detalii despre datele colectate pe respectivul etaj PRECIS. Ulterior se pot integra si datele din BMS-ul cladirii PRECIS.
T4.4: Aplicatie pentru monitorizarea spatiilor de parcare
Coordonator: Ciprian Dobre
Numar studenti: 1-2
Tema propune dezvoltarea unei platforme IoT distribuite, care sa ajute la monitorizarea spatiilor de parcare. Puneti un senzor de presiune pe locul de parcare si planificati ruta masinii tinand cont de locurile de parcare disponibile. Pentru locatia exacta, instalati baloane cu heliu pentru ca sunt vizibile, legati un balon pe locul de parcare, cand masina parcheaza sfoara este trasa de masina si balonul coboara.
T4.5: Aplicatie pentru monitorizare din drona a starii unui lan de cultura
Coordonatori Ciprian Dobre
Numar studenti: 1-2
Tema propune dezvoltarea unei platforme IoT distribuite, care sa ajute la monitorizarea starii unui lan de cultura. In functie de culoarea lanului, puteti semnaliza evenimente legate de cultura (e gata de recoltare, a fost devastata de hoti, etc.).
T4.6: Aplicatie pentru monitorizare starii vegetatiei
Coordonator: Ciprian Dobre
Numar studenti: 1-2
Tema propune dezvoltarea unei platforme IoT distribuite, care sa ajute la monitorizarea starii vegetatiei. Puneti un senzor de sunet in padure, in diverse locatii. Monitorizand sunetul, puteti depista zgomotul unei drujbe (folosind transformate Fourier) sau zgomot de incendiu.
T4.7: Aplicatii crowdsourcing
Coordonatori: Ciprian Dobre, Radu-Ioan Ciobanu
Numar studenti: 1-2
Telefonul mobil este deja echipat cu multi senzori. Puteti sa va ganditi la aplicatii in care colectati date pornind de la acesti senzori (trebuie doar sa va dezvoltati o aplicatie Android ce preia senzorii si transmite date;e spre un gateway peste HTTP). Exemple: 1) Noise Map – aplicatie pentru monitorizarea nivelelor de zgomot din Bucuresti (ati folosi microfonul telefonului), 2) Road Bumps – aplicatie pentru monitorizarea gropilor din Bucuresti (in masina, preluati datele accelerometrului sau giroscopului pentru a trasa gropi functie de inclinatia masinii), etc.
T4.8: Monitorizarea si detectia de activitati sportive si/sau fizice
Coordonatori: Ciprian Dobre, Radu-Ioan Ciobanu
Numar studenti: 1-2
Odata cu inaintarea in varsta, ajungem sa suferim de probleme de motricitate si/sau mobilitate. Tema propune realizarea unei aplicatii de monitorizare a unor astfel de conditii: persoana monitorizata prin intermediul unui senzor de adancime (ne intereseaza postura, pentru care vom folosi camere Orbbec) este pusa in fata unui TV sa efectueze o serie de exercitii, si ne dorim detectia corectitudinii efectuarii acestora in scopul detectiei unor conditii medicale. O alta componenta ar putea presupune testarea si propunerea de algoritmi inteligenti de detectie a miscarilor si activitatilor persoanelor vizate.
S5. Retele vehiculare
Sim2Car este o aplicatie de simulare de trafic de autovehicule in orase implementata in Java. Foloseste date de trafic reale (in orase ca San Francisco, Roma sau Beijing) si poate fi utilizata pentru evaluarea performantelor unor solutii de tip Smart City. De exemplu, pornind de la datele care arata cum s-au deplasat masinile dintr-un oras cum e San Francisco pentru o perioada de timp, se pot extrage metrici precum viteza medie de deplasare, consumul de combustibil sau timpul mediu pana la destinatie, cu scopul de a se imbunatati folosind solutii inteligente.
T5.1: Dirijare inteligenta a traficului
Coordonatori Ciprian Dobre
Numar studenti: 1-2
Aceasta tema propune implementarea in Sim2Car a diverse metode de dirijare inteligenta a traficului intr-un oras inteligent. Astfel, se poate presupune ca autovehiculele din oras sunt dispuse cu senzori si ca au capacitatea de a comunica intre ele prin diverse metode (fie prin intermediul unui backend cloud, fie intr-un mod vehicle-to-vehicle atunci cand se afla in proximitate). Intr-o astfel de situatie, masinile pot trimite una catre alta informatii despre trafic, intarzieri, obstacole, drumuri ocolitoare, etc., pentru a genera noi trasee care pot duce la imbunatatirea traficului.
T5.2: Sim2Car peste Web
Coordonatori Ciprian Dobre
Numar studenti: 1-2
Se porneste de la o aplicatie deja dezvoltata, simulatorul Sim2Car implementat in Java. Simulatorul permite executia de simulari in care masini emulate se misca pe o harta, peste drumuri, scopul fiind de a evalua efectul unor factori precum introducerea unor semafoare inteligente sau diverse aplicatii on-board de rutare inteligenta. Tema presupune portarea simulatorului in Web, ideea fiind de a permite cuiva de la distanta, din browser, rularea unui scenariu de simulare.
S6. Sisteme de calcul mobil
Aplicatiile mobile din ziua de azi constau in general dintr-o componenta frontend care ruleaza pe dispozitivul mobil si o componenta backend care ruleaza in cloud si care are rolul de a executa calcule complexe sau de a aduce date. Din pacate, acest model duce la costuri mari pentru dezvoltatorii de aplicatii (pentru ca este necesara o infrastructura cloud care poate sa scaleze cu numarul de utilizatori) si la o experienta proasta de utilizare (daca latenta este mare sau daca utilizatorii folosesc o conexiune mobila broadband pe care o platesc). Astfel, apare ideea de Drop Computing, ce propune descentralizarea computing-ului si a datelor peste retele cu mai multe nivele, prin combinarea tehnologiilor cloud si wireless peste o multime sociala formata din dispozitive mobile si de margine (edge). Dispozitivele mobile si oamenii se inter-conecteaza si colaboreaza ad-hoc in mod dinamic, pentru a suporta echivalentul unui cloud de cloud-uri multi-nivel, unde capacitatile oricarui dispozitiv mobil sunt extinse dincolo de barierele tehnologice locale, pentru a acomoda resurse externe disponibile in multimea formata din alte dispozitive. Astfel, in loc ca fiecare cerere de date sau calcule sa fie directionata catre cloud, Drop Computing foloseste dispozitivele din proximitate pentru acces mai rapid si mai eficient. Nodurile din vecinatate sunt folosite pentru a oferi date deja descarcate sau pentru a realiza calcule si operatii complexe, iar cloud-ul actioneaza ca o a doua sau chiar a treia optiune.
La nivelul cel mai de jos al unei retele Drop Computing, dispozitivele mobile comunica intre ele prin intermediul retelelor oportuniste. Acestea presupun ca nodurile mobile pot schimba date folosind protocoale de distanta mica precum Bluetooth sau Wi-Fi Direct, dirijarea mesajelor facandu-se intr-un mod probabilistic, folosind euristici bazate pe context. Aceste euristici au rolul de a maximiza rata de succes a dirijarii oportuniste (adica de a maximiza numarul de mesaje care ajung cu succes la destinatie), de a minimiza latenta, dar si de a reduce pe cat posibil consumul de baterie. Acesta din urma este un element important in retele formate din dispozitive mobile, motiv pentru care se incearca limitarea numarului de mesaje trimise in retea si utilizarea de informatii de context pentru a prezice cu succes daca un nod mobil intalnit in retea este potrivit sa fie urmatorul hop pentru un mesaj. Printre tipurile de informatii de context care s-au folosit de-a lungul anilor pentru dirijare de mesaje in retele oportuniste, se afla istoricul contactelor, conexiunile sociale, pozitia geografica, programul utilizatorului care detine nodul mobil, preferintele utilizatorului, etc.
Temele din cadrul acestei sectiuni implica propunerea si evaluarea de solutii de dirijare pentru Drop Computing, atat in simulare, cat si pe dispozitive mobile cu Android sau iOS. Mai mult, o parte din teme implica si colectarea sau implementarea de componente auxiliare necesare testarii si evaluarii Drop Computing.
T6.1: Dirijare si diseminare in retele oportuniste
Coordonator: Radu-Ioan Ciobanu
Numar studenti: 2-3
In retele oportuniste, una din cele mai importante componente este reprezentata de algoritmii folositi pentru dirijare si diseminare de date, al caror scop este sa maximizeze rata de succes si sa minimizeze latenta de livrare si consumul de baterie, folosind informatii de context si metode inteligente de predictie. Aceasta tema presupune implementarea si evaluarea de solutii proprii de dirijare si diseminare in simulare (pe scenarii de scara larga, folosind simulatorul MobEmu) sau pe dispozitive mobile cu Android sau iOS. In contextul retelelor oportuniste, dirijarea se refera la trimiterea de mesaje directionate de la un nod A catre un nod B, iar diseminarea inseamna raspandirea unor mesaje tuturor nodurilor care se declara ca fiind interesate de ele.
T6.2: Offloading de calcule in Drop Computing
Coordonator: Radu-Ioan Ciobanu
Numar studenti: 2-3
Drop Computing este momentan implementat intr-un simulator, unde i se poate analiza comportamentul pe scara larga. Aceasta tema presupune implementarea lui pe dispozitive reale si testarea offloading-ului de calcule de pe un nod mobil (un smartphone) catre un alt nod mobil sau catre un dispozitiv de tip edge (adica o masina fixa). Acest lucru presupune impartirea codului unei aplicatii Android sau iOS in componente care pot fi offload-ate (folosind adnotari sau in mod automat), analiza unui nod din proximitate din punct de vedere al capabilitatilor de ajutat cu calculele, si in cele din urma offload-ul propriu-zis al codului si executia sa remote.
T6.3: Implementare Drop Computing in alte simulatoare
Coordonator: Radu-Ioan Ciobanu
Numar studenti: 1-2
In momentul de fata, Drop Computing este implementat in simulatorul MobEmu, care abstractizeaza si simplifica o parte importanta din stiva de retea. Pentru un control mai detaliat al simularilor, aceasta tema propune utilizarea unui alt simulator mai complex pentru implementarea Drop Computing. Exemple de astfel de simulatoare includ ONE (Opportunistic Network Environment), ns-3, etc.
T6.4: Colectare si analiza de trace-uri mobile
Coordonator: Radu-Ioan Ciobanu
Numar studenti: 1-2
Pentru a putea studia pe scara larga beneficiile unor algoritmi de dirijare si diseminare in Drop Computing, intai se implementeaza si ruleaza solutia intr-un simulator, si abia apoi se face deployment intr-un scenariu adevarat. Intr-un simulator, pentru a putea aproxima cat mai bine comportamentul unor noduri dintr-o retea oportunista, se folosesc fie modele matematice de mobilitate care incearca sa aproximeze miscarea si interactiunile umane, fie trace-uri de date colectate din situatii reale. Aceasta tema de cercetare presupune implementarea unei aplicatii mobile care sa colecteze astfel de trace-uri. Mai precis, aplicatia trebuie ca, atunci cand doua dispozitive mobile sunt in proximitate, sa inregistreze ID-urile dispozitivelor, momentul contactului, si durata sa. Aditional, se pot colecta alte informatii cum ar fi nivelul de baterie al nodurilor, memoria ocupata, frecventa pe procesor, numarul de core-uri folosite, activitatea utilizatorului, etc., pentru a oferi o imagine mai completa asupra retelei mobile. Etapa a doua a acestei solutii presupune deployment-ul acestei aplicatii pe o scara larga (de exemplu, catre studentii dintr-o grupa sau dintr-o serie) si colectarea de date pe o anumita perioada. In final, datele colectate trebuie analizate si, pe baza lor, trase concluzii despre modul in care nodurile interactioneaza, pattern-urile descoperite, gruparea utilizatorilor in comunitati, comportamentul dispozitivului, etc.
T6.5: Model de mobilitate umana
Coordonator: Radu-Ioan Ciobanu
Numar studenti: 1-2
Pentru a putea studia pe scara larga beneficiile unor algoritmi de dirijare si diseminare in Drop Computing, intai se implementeaza si ruleaza solutia intr-un simulator, si abia apoi se face deployment intr-un scenariu adevarat. Intr-un simulator, pentru a putea aproxima cat mai bine comportamentul unor noduri dintr-o retea oportunista, se folosesc fie modele matematice de mobilitate care incearca sa aproximeze miscarea si interactiunile umane, fie trace-uri de date colectate din situatii reale. Aceasta tema de cercetare presupune crearea, implementarea si validarea unui model de mobilitate care sa aproximeze cat mai bine comportamentul uman in diferite scenarii, atat indoor, cat si outdoor. Modelul se va implementa intr-un simulator existent (ONE sau MobEmu) si va fi validat pe trace-uri reale de date. Ca un element aditional, se pot apoi aplica algoritmi de rutare si diseminare in retele mobile pentru a observa comportamentul modelului.
T6.6: Estimarea multimilor in orase inteligente
Coordonatori: Radu-Ioan Ciobanu, Ciprian Dobre
Numar studenti: 1
Tehnologiile “pervasive” de detectie (ex., senzori wireless, camere stradale, etc.) permit implementarea de solutii de estimare a multimii in orasele inteligente. Cu toate acestea, sistemele existente bazate pe Wi-Fi nu ofera o estimare foarte precisa a dimensiunii multimilor, pentru ca nu se adapteaza usor la modificari subite si la comportamente dinamice. Aceasta tema implica investigarea solutiilor existente si propunerea de noi metode de detectie a multimilor bazate pe IoT si ML/AI, cu pastrarea confidentialitatii si anonimizarea datelor utilizatorilor. Ca un punct de start, va recomandam sa cititi acest articol.
T6.7: Clasificarea traficului multimedia pe dispozitivele mobile
Coordonatori: Radu-Ioan Ciobanu, Ciprian Dobre
Numar studenti: 1-2
In retelele mobile centrate pe utilizator, o problema curenta o reprezinta incapacitatea acestora de a determina tipul de trafic criptat care are loc si, prin urmare, nivelul de serviciu al retelei de care traficul are nevoie pentru a mentine un QoE acceptabil. Noi metode propun realizarea clasificarii traficului chiar la nivelul dispozitivelor finale, deoarece acestea au mai multe informatii contextuale despre utilizarea si traficul dispozitivului. Ele pot detecta propriul context multimedia, caracterizat prin utilizarea diferitelor componente de I/O media (ex., camera, microfon, difuzor, etc.). Aceasta tema implica investigarea solutiilor existente si propunerea de noi metode de clasificare a traficului pe dispozitive mobile. Ca un punct de start, va recomandam sa cititi acest articol.
T6.8: Comunicatie oportunista in orase inteligente
Coordonator: Radu-Ioan Ciobanu
Numar studenti: 1-2
In ziua de azi, cheltuielile necesarii transformarii unui oras intr-un “smart city” sunt foarte mari, un factor notabil fiind oferirea de conectivitate celulara dispozitivelor IoT. O solutie posibila este 5G, dar se estimeaza ca acesta nu va putea suporta miliardele de dispozitive IoT care ar ajunge sa fie online. Un mod de a diminua aceasta problema este utilizarea cetatenilor, a vehiculelor si a nodurilor de transport public pentru a ajuta la realizarea comunicatiei oportuniste dispozitiv-la-dispozitiv, lucru care ar reduce costurile de conectivitate celulara asociate cu senzorii orasului inteligent. Aceasta tema se refera la propunerea si evaluarea unor solutii de amplasare rentabila a nodurilor de tip “edge” in orasele inteligente, care pot ajuta la valorificarea oportunista a cetatenilor, vehiculelor si retelelor de transport public. Ca un punct de start, va recomandam sa cititi acest articol.
T6.9: Realitate augmentata mobila
Coordonatori: Radu-Ioan Ciobanu, Ciprian Dobre
Numar studenti: 6-7
Realitatea augmentata (AR) ofera experiente inedite pentru utilizatori prin suprapunerea informatiilor digitale peste medii fizice. Realitatea augmentata mobila (MAR) integreaza obiecte virtuale generate de calculator cu medii fizice pentru dispozitive mobile. Sistemele MAR le permit utilizatorilor sa interactioneze cu dispozitive MAR, cum ar fi smartphone-uri și dispozitive wearable, si sa efectueze fara probleme tranzitii de la lumea fizica la o lume cu entitati digitale. Astfel, sistemele MAR ofera acces universal la continut digital. Constientizarea contextului este deci cruciala pentru oferirea de informatii si actiuni relevante utilizatorilor. Aceasta tema isi propune studiul a diferite componente care tin de realitatea augmentata mobila, precum recunoasterea obiectelor, protocoalele folosite, context-awareness, offloading de calcule, colaborarea cu IoT, etc. Ca un punct de start, va recomandam sa cititi aceste articole: 1, 2, 3, 4, 5, 6, 7.
S7. Offloading de date si calcule in retele mobile
La ora actuala, un smartphone (sau un alt dispozitiv mobil) are la dispozitie mai multe interfete de comunicatie: broadband (4G/5G), Wi-Fi, Wi-Fi Direct, Bluetooth (sau BLE). Daca, intr-o anumita situatie, exista posibilitatea sa se transfere date peste oricare dintre acestea, care este cea mai potrivita pentru diferite scenarii? Aceasta tema de proiect are doua componente, detaliate mai jos.
T7.1: Tracing de date
Coordonatori: Ciprian Dobre, Radu-Ioan Ciobanu
Numar studenti: 1-2
Pentru prima parte, se doreste realizarea de experimente pentru a intelege de ce factori depinde decizia de selectare a unei anumite interfete. In cadrul laboratorului, avem la dispozitie noduri hardware avand instalate 3 MiB-uri (pentru realizarea unor experimente in care sa testam simultan conditii de trafic pentru 3 operatori diferiti, cum ar fi Orange, Vodafone, Telekom) si un Wi-Fi (putem adauga in plus si un dongle de BLE). Daca puteti sa preluati date privind transmisii simultane pe toate aceste interfete, ce date v-ar interesa sa colectati (si de ce)? Cel mai simplu raspuns ar fi sa alegem Wi-Fi oricand este disponibil. Problema este ca, de multe ori, Wi-Fi nu este alegerea corecta, in special din cauza congestiei, vitezelor reduse pe anumite tipuri de routere, pachetelor pierdute, etc. Alternativa naturala ar fi atunci broadband-ul, dar acesta poate suferi de probleme similare (congestie pe celule de comunicatie in zone aglomerate, de exemplu la un concert sau meci de fotbal). Mai mult, pot aparea probleme de cost (de exemplu, pentru transfer video planul de date s-ar putea sa fie limitat). De aceea, ne intereseaza sa colectam toti parametrii posibili si sa realizam mapari ale acestor limitari in functie de performanta vizavi de oportunitatile de comunicatie. Aceste experimente se pot face inclusiv direct pe telefon, prin realizarea unei aplicatii Android sau iOS care sa testeze simultan conditii de trafic peste Wi-Fi, BLE, si broadband.
T7.2: Algoritmi inteligenti de offloading
Coordonatori: Radu-Ioan Ciobanu, Ciprian Dobre
Numar studenti: 2-3
Aceasta tema consta in propunerea de algoritmi de alegere a celor mai potrivite alternative de trafic (plus realizarea unor servicii sau aplicatii care sa verifice acesti algoritmi) pentru diverse scenarii. Aceasta inseamna, intr-o prima etapa, propunerea unui algoritm inteligent care sa functioneze strict pornind de la concluziile din experimentele de colectare. De exemplu, daca din experimente descoperim semne care denota o posibila congestie, si in aplicatia mobila descoperim prin monitorizare acele conditii, atunci trecem automat traficul pe interfata unde este mai putina congestie. Urmatorul pas este realizarea de experimente ad-hoc: daca am implementat algoritmul si am mutat traficul, e mai bine? Trebuie sa masuram castigul de performanta, printr-o comparatie intre ce se intampla cand se foloseste si cand nu se foloseste algoritmul propus. In a doua etapa, presupunem ca avem la dispozitie si o biblioteca ce faciliteaza schimbul de mesaje intre utilizatori ce au instalat acelasi serviciu, peste tehnologie Wi-Fi (cand se afla in proximitate, pot schimba date direct peste Wi-Fi). In acest caz, cum s-ar optimiza algoritmul de alegere a interfetei de comunicatie? De exemplu, daca un utilizator a descoperit ca, intr-o zona, Wi-Fi-ul se comporta mai bine decat broadband, l-ar putea anunta si pe celalalt utilizator, astfel incat cel de-al doilea sa nu mai astepte dupa monitorizarea conditiilor de trafic pentru a alege Wi-Fi in zona respectiva. Pentru acesti noi algoritmi de alegere a interfetei (optimizati), se vor realiza din nou experimente pentru a intelege daca ei chiar se comporta mai bine (comparativ cu algoritmii anterior dezvoltati sau cu solutia de a nu folosi niciun algoritm).
S8. Aplicatii si framework-uri pentru dispozitive mobile
Temele din aceasta sectiune presupun implementarea unor aplicatii sau framework-uri pentru dispozitive mobile.
T8.1: Aplicatie mobila pentru o familie
Coordonatori: Florin Pop, Bogdan-Costel Mocanu
Numar studenti: 1-2
Scopul temei este unul simplu: definirea unei aplicatii mobile pentru o familie (parinti, copii, bunici), dar nu numai (poate fi aplicata si pentru grupuri de prieteni) ca suport pentru activitatile recreative, sociale, gestiunea evenimentelor, a bunurilor comune, etc. Vom modela împreuna conceptul de familie / grup, vom proiecta modelul de date si de stocare a acestora, functionalitatile care le poate oferi aplicatia. Dintre acestea, cateva exemple ar fi: evenimente de familie (cu notificari) legate de o mini-componenta calendar (de exemplu pentru zilele de nastere ale cunoscutilor), o alarma spatiala (care sa ne notifice când suntem într-o anumita locatie) si multe altele (sunteti invitati la inovare). Vom tine cont si de aspectele legate de securitate.
T8.2: Biblioteca mea mobila
Coordonator: Florin Pop
Numar studenti: 1-2
Foarte multe persoane au în casa o biblioteca de carti personale, mai mica sau mai mare. De cele mai multe ori ne dorim sa stim la un moment dat daca avem sau nu o carte în biblioteca si anumite informatii despre aceasta (coperta, anul, editura, etc.). Scopul proiectului este crearea unei aplicatii mobile care sa ne ajute sa catalogam cartile din biblioteca personala si sa avem o functie de cautare bine realizata. Functia de catalogare ar putea apela si la operatii de OCR, cum ar fi fotografierea copertilor cartii si extragerea automata informatiilor. Daca o carte poate fi gasita gratuit pe Internet, putem aduce link-ul acesteia în aplicatie. Cautarea ar trebui sa fie una avansata.
T8.3: Framework de gestiune a puterii si performantei pe dispozitive Android
Coordonator: Radu-Ioan Ciobanu
Numar studenti: 1-2
Un mare neajuns al telefoanelor inteligente in ziua de azi este in continuare durata scurta de viata a bateriei. Aceasta tema presupune investigarea componentelor de performance si power management atât la nivel de Android (precum Doze, thermal mitigation, modul “sustained performance”, etc.), cât si la nivel nativ sau chiar de nucleu (DVFS – dynamic voltage and frequency scaling, hotplugging, frequency/idle governors, etc.), precum si solutii deja existente (ex., Perfetto). Rezultatul final va fi un framework prin intermediul careia aplicatiile Android vor putea controla performanta si consumul de baterie al dispozitivului mobil pe care ruleaza.
T8.4: Aplicatii cu dispozitive wearable
Coordonatori: Radu-Ioan Ciobanu, Ciprian Dobre
Numar studenti: 3-4
Dispozitivele de tip smart watch/bracelet pot fi folosite pentru colectarea de date care ar ajuta la detectia diferitelor activitati umane (ex., spalatul pe maini) sau afectiuni (ex., boli musculo-scheletale), la autentificare (ex., prin detectia mersului), etc. Aceasta tema implica evaluarea si implementarea unor astfel de solutii, fie pe ceasurile Huawei cu HarmonyOS pe care le avem in laborator, fie pe alte dispozitive similare. Ca un punct de start, va recomandam sa cititi aceste articole: 1, 2, 3.
T8.5: Invatare federata pe dispozitive wearable
Coordonator: Radu-Ioan Ciobanu
Numar studenti: 1-2
Dispozitivele wearable colecteaza informatii despre utilizatori si activitatile lor si ofera informatii pentru ca acestia sa-si imbunatateasca stilul de viata de zi cu zi. Aplicatiile de e-health au obtinut un mare succes prin antrenarea modelelor de ML pe o cantitate mare de date despre utilizatori, obtinute de la dispozitive wearable. Cu toate acestea, confidentialitatea devine critica pentru antrenarea modelelor ML intr-un mod centralizat. Invatarea federata este o noua paradigmă ML care poate antrena modele de inalta calitate chiar daca datele de antrenament sunt distribuite pe un numar mare de dispozitive. Aceasta tema implica evaluarea invatarii federate pe dispozitive wearable, precum si propunerea si evaluarea de solutii in scenarii reale. Ca un punct de start, va recomandam sa cititi acest articol.
S9. Monitorizarea multimilor intr-un mod privacy-preserving
In momentul de fata, in numeroase spatii publice sunt instalate scannere Wi-Fi care sunt folosite pentru a intelege dinamica persoanelor. In fapt, se detecteaza dispozitive mobile pe care persoanele le poarta cu ele. Datele colectate de aceste scannere sunt privacy-sensitive, in sensul ca ele pot duce la identificarea unica a persoanelor care sunt monitorizate. Acest lucru nu trebuie sa se intample, intrucat este explicit interzis de reglementarile referitoare la protectia datelor (cum ar fi GDPR). Temele din aceasta sectiune vizeaza mai multe aspecte ale acestei probleme.
T9.1: Aplicatie de Wi-Fi sniffing cu k-anonymity
Coordonator: Valeriu-Daniel Stanciu
Numar studenti: 1
Proiectul presupune implementarea unei aplicatii pentru un scanner Wi-Fi (Raspberry Pi, de exemplu) care sa culeaga semnalele Wi-Fi care circula prin aer in raza sa. Imediat dupa preluarea semnalelor, direct la scanner, datele trebuie sa fie anonimizate astfel incat nicio citire nu va putea fi distinsa dintre cel putin k citiri similare din acelasi interval de timp. Ulterior, se vor realiza experimente pentru a vedea cat de precise sunt informatiile referitoare la dinamica multimilor obtinute dupa anonimizarea datelor. Plecand de la aceste observatii, in final se va implementa un algoritm de fine-tuning pentru a imbunatati raspunsurile finale, atenuand astfel impactul anonimizarii.
T9.2: Folosirea inteligentei artificiale pentru a ocoli randomizarea adreselor MAC
Coordonator: Valeriu-Daniel Stanciu
Numar studenti: 1
In ultimii ani, din ce in ce mai multe dispozitive mobile au inceput sa foloseasca adrese MAC random cand transmit semnale Wi-Fi. Pe langa faptul ca sunt random, aceste adrese se schimba la diferite intervale de timp. Totusi, anumite caracteristici ale transmisiilor indica faptul ca unele semnale sunt generate de acelasi dispozitiv. Pentru aceasta tema, ne propunem sa construim un sistem bazat pe deep learning care sa fie capabil sa inteleaga carui device ii apartin anumite semnale, chiar daca ele vin insotite de adrese MAC random diferite.
T9.3: Estimarea dinamicii multimilor prin tracing Wi-Fi
Coordonator: Ciprian Dobre
Numar studenti: 1
Tema va propune solutii in cercetare pentru monitorizarea semnalelor Wi-Fi si tragerea unor concluzii privind dinamica multimilor, cu consideratii de privacy avand in vedere ca datele astfel captate includ si informatii sensibile.
S10. Invatare federata pentru mobilitate umana
Pe masura ce invatarea automata este aplicata din ce in ce mai des pentru a modela si a prezice mobilitatea umana, multe discutii se invart in jurul consecintelor etice pe care aceasta abordare le are asupra intimitatii oamenilor. O provocare majora consta in obtinerea unui echilibru intre utilitatea serviciilor de predictie a mobilitatii folosind invatarea automata, si intimitatea oamenilor. O abordare promitatoare in aceasta situatie este invatarea federata, care permite unor entitati distribuite sa colaboreze pentru a antrena modele locale de invatare automata sub constrangeri stricte de securitate si intimitate. Mai mult, aceasta abordare permite o modelare mai buna si o scalabilitate mai mare, prin partajarea cunostintelor acumultate in urma procesului de invatare si impartirea costurilor asociate.
Invatarea federata a fost aplicata pana in prezent pe multe tipuri de date, precum vorbire, sanatate, imagini si text. Totusi, prin temele din aceasta sectiune, suntem interesati de aplicarea invatarii federate pe date legate de mobilitatea umana, pentru ca aceasta are o influenta foarte mare asupra unei varietati de factori care afectaza vietile oamenilor. Un prim exemplu ar fi forma, dimensiunile si comportamentul in marile orase, elemente dictate de dinamica locuitorilor. Ne putem imagina ca, in viitor, vom locui in orase unde transportul urban va deveni mai eficient si se va adapta in timp real la nevoile locuitorilor, unde programele magazinelor sau institutiilor publice se vor modifica pentru a le face disponibile sa serveasca un numar cat mai mare de oameni, unde, in cazul unor urgente, fluxurile de oameni vor fi optimizate astfel incat un numar maxim de vieti sa poata fi salvate, sau unde echipajele de salvare vor avea acces la unelte care le vor permite sa isi utilizeze resursele la maxim. Planificarea de facilitati, orasele inteligente, marketing-ul, turismul sau domeniul entertainment-ului sunt doar cateva exemple de domenii care ar putea beneficia de intelegerea mobilitatii si a dinamicii multimilor.
Temele din aceasta sectiune presupun colectarea si analiza de date de mobilitate, precum si aplicarea de algoritmi de invatare federata pe aceste date, pentru a testa fezabilitatea si eficienta acestora.
T10.1: Invatare federata in scenarii de mobilitate umana la interior
Coordonator: Radu-Ioan Ciobanu
Numar studenti: 1-2
Aceasta tema presupune aplicarea invatarii federate pentru predictia mobilitatii umane in scenarii de interior, precum universitati, concerte, evenimente sportive, etc. Astfel, se vor implementa algoritmi de invatare automata cunoscuti (precum Recurrent Neural Network, Dilated Recurrent Neural Network, Recurrent Highway Network, etc.) si se vor adapta la scenariul de mobilitate umana la interior, cu scopul de a identifica parametrii generici necesari acestui scenariu. Mai departe, se vor valida acesti algoritmi pe diverse seturi de date.
T10.2: Invatare federata in scenarii de mobilitate umana la exterior
Coordonator: Radu-Ioan Ciobanu
Numar studenti: 1-2
Aceasta tema presupune aplicarea invatarii federate pentru predictia mobilitatii umane in scenarii de exerior, in arii de dimensiuni mari cu fluxuri libere de circulatie, precum orasele inteligente. Intr-un astfel de scenariu, solutiile de invatare federata ar putea realiza, de exemplu, previziuni pentru a trimite in mod dinamic echipe de salvare catre zone cu probleme, deci putem presupune ca este necesar un nivel mare de incredere mutuala intre nodurile care aplica algoritmii de invatare federata, precum si prezenta unui nod cloud responsabil cu coordonarea procesului de invatare. Astfel, se vor implementa algoritmi de invatare automata cunoscuti (precum Recurrent Neural Network, Dilated Recurrent Neural Network, Recurrent Highway Network, etc.) si se vor adapta la scenariul de mobilitate umana la exterior, cu scopul de a identifica parametrii generici necesari acestui scenariu. Mai departe, se vor valida acesti algoritmi pe divese seturi de date.
T10.3: Invatare federata in scenarii de mobilitate vehiculara
Coordonator: Radu-Ioan Ciobanu
Numar studenti: 1-2
Aceasta tema presupune aplicarea invatarii federate pentru predictia mobilitatii vehiculare in orase mari. Intr-un astfel de scenariu, s-ar putea presupune ca locuitorii participa intr-o platforma deschisa de car sharing, de exemplu, unde o solutie de invatare federata descentralizata s-ar potrivi bine, din cauza unei increderi scazute intre nodurile participante (soferii). Astfel, se vor implementa algoritmi de invatare automata cunoscuti (precum Recurrent Neural Network, Dilated Recurrent Neural Network, Recurrent Highway Network, etc.) si se vor adapta la scenariul de mobilitate vehiculara, cu scopul de a identifica parametrii generici necesari acestui scenariu. Mai departe, se vor valida acesti algoritmi pe divese seturi de date.
T10.4: Colectare si analiza de date de mobilitate umana la interior
Coordonator: Radu-Ioan Ciobanu
Numar studenti: 1
Validarea algoritmilor de invatare federata necesita existenta unor seturi de date de mobilitate umana la interior. Aceasta tema presupune atat identificarea unor astfel de seturi de date deja existente (de exemplu, de pe o platforma precum CRAWDAD), cat si colectarea si analiza unor seturi de date proprii, prin diverse metode.
T10.5: Colectare si analiza de date de mobilitate umana la exterior
Coordonator: Radu-Ioan Ciobanu
Numar studenti: 1
Validarea algoritmilor de invatare federata necesita existenta unor seturi de date de mobilitate umana la exterior. Aceasta tema presupune atat identificarea unor astfel de seturi de date deja existente (de exemplu, de pe o platforma precum CRAWDAD), cat si colectarea si analiza unor seturi de date proprii, prin diverse metode.
T10.6: Colectare si analiza de date de mobilitate vehiculara
Coordonator: Radu-Ioan Ciobanu
Numar studenti: 1
Validarea algoritmilor de invatare federata necesita existenta unor seturi de date de mobilitate vehiculara. Aceasta tema presupune atat identificarea unor astfel de seturi de date deja existente (de exemplu, de pe o platforma precum CRAWDAD), cat si colectarea si analiza unor seturi de date proprii, prin diverse metode.
T10.7: Platforma de invatare federaeta pentru mobilitate vehiculara
Coordonator: Radu-Ioan Ciobanu
Numar studenti: 2-3
Obiectivul principal al acestei teme este de a studia modul in care dimensiuni diferite ale invatarii federate interactioneaza atunci cand se implementeaza o platforma software generica pentru astfel solutii in contextul modelarii si predictiei de mobilitate. In acest mod, se vor implementa noi artefacte software open source ce vor sustine invatarea federata pentru predictia mobilitatii.
Problema adresata este intrinsec multidimensionala, fiind formata din aspecte legate de mobilitatea umana, algoritmi distribuiti si arhitecturi software. Astfel, pe langa dimensiunea generica mostenita de la problema oferirii de componente software pentru invatare automata (cum ar fi tipurile de algoritmi, date, sau predictie), oferirea de suport reutilizabil pentru invatare federata vine cu o serie de dimensiuni generice, precum modelul de partitie a datelor, constrangeri de securitate, cerinte de scalabilitate, etc. Aceasta complexitate aditionala poate deveni rapid coplesitoare pentru dezvoltatori si poate face ca abordarea invatarii federate sa ajunga sa fie considerata inabordabila. Astfel, obiectivul general al acestei teme este de a investiga gradul in care aceste dimensiuni pot fi generalizate, precum si modul in care ele interactioneaza si eventual interfereaza unele cu altele, atunci cand se creeaza o platforma software care sa suporte o varietate de solutii de invatare federata pentru analiza, modelarea si predictia datelor de mobilitate umana. Din punct de vedere practic, obiectivul este de a face abordarea invatarii federate mai inteligibila pentru dezvoltatorii care doresc sa o utilizeze. Pentru a atinge acest obiectiv, se va construi in mod incremental o platforma open source, pe masura ce se vor explora aspectele generice ale acestui spatiu multidimensional. Pentru a valida abordarea, se va folosi paltforma pentru a construi si rula diverse solutii de invatare federata si pentru a le evalua folosind mai multe seturi de date pentru trei scenarii concrete.
S11. Blockchain si dApp
Aceasta sectiune propune teme unde se cere implementarea unor aplicatii peste blockchain in diverse domenii.
T11.1: Blockchain aplicat in domeniul sanatatii
Coordonatori: Liviu Hirtan, Ciprian Dobre
Numar studenti: 1
Aceasta tema presupune implementarea unei aplicatii software ce reprezinta un sistem de salvare si partajare a datelor medicale sau a datelor referitoare la informatii medicale in blockchain. Proiectul implica gasirea unei arhitecturi, cat si implementarea unei aplicatii software, plecand de la cateva exemple date. Sistemul implica existenta unor entitati de incredere (spitale, laboratoare medicale, etc.) ce salveaza in mod permanent date in blockchain, cat si a unor entitati de neincredere (institute de cercetare, angajatori, etc.) care au acces la datele salvate in blockchain in baza unor politici de acces. Pacientii au acces la propriile date, dar si membrii familiei, in anumite conditii. Aplicatia poate fi web-based sau command line.
T11.2: Blockchain aplicat in sisteme inteligente de transport
Coordonatori: Liviu Hirtan, Ciprian Dobre
Numar studenti: 1
Aceasta tema presupune implementarea unei aplicati software ce reprezinta un sistem de salvare si partajare a datelor referitoare la trafic. Proiectul implica gasirea unei arhitecturi, cat si implementarea unei aplicatii software, plecand de la cateva exemple date. Sistemul implica existenta unor entitati de neincredere (soferii), care contribuie cu date referitoare la trafic si, in acelasi timp, doresc sa obtina alte date referitoare la traseul pe care vor sa il efectueze. Datele provenite de la utilizatori sunt verificate astfel incat in sistem sa nu fie salvate informatii eronate. De asemenea, trebuie asigurata si confidentialitatea utilizatorilor astfel incat identitatea acestora sa fie protejata. Aplicatia poate fi web-based sau command line.
T11.3: Aplicatie de notariat peste blockchain
Coordonatori: Liviu Hirtan, Ciprian Dobre
Numar studenti: 1
Aceasta tema presupune implementarea unei aplicatii software ce stocheaza in mod permanent documente juridice. Proiectul implica gasirea unei arhitecturi, cat si implementarea unei aplicatii software, plecand de la cateva exemple date. Sistemul implica existenta unor entitati de incredere (birourile notariale) care partajeaza si populeaza un blockchain inchis, in care se regasesc documente notariale. Datele ce urmeaza a fi introduse in sistem sunt verificate de restul entitatilor in cadrul unui proces de mining, pentru a preveni salvarea de informatii eronate. Aplicatia poate fi web-based sau command line.
T11.4: Solutie de securizare a transferului de date
Coordonator: Ciprian Dobre
Numar studenti: 1
Tema presupune dezvoltarea unei solutii pentru securizarea transferului de date proprietare.
S12. Platforme
Aceasta sectiune propune teme unde se cere implementarea unor platforme pentru diferite scopuri.
T12.1: Modul de colectare infrastructuri
Coordonator: Ciprian Dobre
Numar studenti: 2
Tema presupune crearea unei platforme pentru colectarea datelor privind ofertele de servicii, tehnologii si infrastructuri ale colectivelor de cercetatori din UPB. Ca si punct de inspiratie, puteti sa va uitati la https://eeris.eu/. Un cercetator se autentifica si apoi publica acces la o infrastructura, ce presupune o descriere a capabilitatilor, locatia unde se afla, si cum se poate accesa de la distanta infrastructura. Dupa, vom pune pe o harta a campusului UPB toate punctele de interes declarate. De exemplu, cineva interesat de oferta colectivelor de la Facultatea de Energetica se poate uita in acea facultate si poate descoperi toate serviciile curent disponibile.
T12.2: Jupyter Hub in UPB
Coordonatori: Ciprian Dobre, Radu-Ioan Ciobanu
Numar studenti: 2
Tema presupune instalarea unui infrastructuri de executie pe serverele UPB a unor Jupyter Notebooks, cu autentificare prin integrare cu login.upb, precum si posibilitatea integrarii de componente pentru notare din partea profesorilor.
T12.3: Data platform
Coordonator: Ciprian Dobre
Numar studenti: 2
Tema presupune extinderea proiectului Inventio cu scopul de a permite incarcarea unor seturi de date legate cu un DOI si de a extinde platforma CRESCDI cu scopul de a permite legarea unei publicatii de setul de date care sta la baza experimentelor din articol (pe baza DOI-ul alocat setului de date).
S13. Open Science / Open Data
Aceasta sectiune propune teme din domeniile Open Science si Open Data.
T13.1: e-Data
Coordonatori: Ciprian Dobre, Ion-Dorinel Filip
Numar studenti: 1-2
Tema de cercetare propune construirea unei solutii prin care un cercetator sa poata proba provenienta unui set de date. Presupuneti time datasets ca intrare, si as vrea sa adaug peste aceste date un markup care sa autentifice ca eu sunt autorul acelui set de date. Folosind NFT nu e suficient, pentru ca cineva poate prelua datele mele si le poate reordona sau modifica un pic (ultimul bit nesemnificativ la fiecare valoare), astfel incat statistica ramane aceeasi dar datele par noi si originale. Cum fac sa semnez datele, ca un fel de capsula de provenienta? Puteti in propunerile voastre sa va gânditi la folosirea blockchain, a unor functii homomorfe de criptare, folosirea unui bloom filter, sau chiar differential privacy.
T13.2: Living lab
Coordonator: Ciprian Dobre
Numar studenti: 1-2
Tema de cercetare presupune instalarea unei instante Moodle si implementarea unui serviciu de autentificare peste EduGAIN. EduGAIN este o platforma de federalizare a serviciilor de autentificare astfel incat un student din Franta, sa spunem, folosind credentialele din organizatia care l-a inrolat in Franta, sa se poata autentifica pe platforma Moodle de la UPB si sa acceseze cursuri. Solutia, bineinteles, trebuie sa si poata dispune de filtrarea drepturilor (studentul strain undeva, intr-un catalog de exemplu, trebuie sa apara ca fiind inrolat la respectivul curs).
T13.3: Platforma Open Data
Coordonator: Ciprian Dobre
Numar studenti: 2
Pentru aceasta tema se va folosi proiectul Open Source Invenio. Tema presupune instalarea platformei la UPB, respectiv adaugarea unui modul de autentificare customizat, oferirea unui REST API pentru adaugarea dinamica a unei informatii de metadate si descarcarea unui set de date dintr-o sursa externa.
S14. Invatare federata
Aceasta sectiune propune teme din domeniul invatarii federate.
T14.1: Blockchained On-Device Federated Learning
Coordonatori: Ciprian Dobre, Radu-Ioan Ciobanu
Numar studenti: 1-2
Tema propunere cercetarea unei arhitecturi de invatare aproape de date (federated learning) unde componenta de privacy este asigurata peste un ledger distribuit. Articolul de pornire pentru aceasta tema este acesta.
T14.2: Federated Learning for Healthcare Informatics
Coordonatori: Ciprian Dobre, Radu-Ioan Ciobanu
Numar studenti: 1-2
Tema propune crearea unor solutii de invatare cu consideratii de privacy, pentru zona datelor medicale. Articolul de pornire pentru aceasta tema este acesta.
T14.3: AI on the Move: From On-Device to On-Multi-Device
Coordonatori: Ciprian Dobre, Radu-Ioan Ciobanu
Numar studenti: 1-2
La ora actuala, multe calcule se duc dinspre Cloud spre Edge Computing, cat mai aproape de sursa generatoare a acelor date. Intr-un astfel de scenariu, tema propune cercetarea unei solutii de suport pentru un AI distribuit. Articolul de pornire pentru aceasta tema este acesta.
T14.4: Gait Recognition
Coordonatori: Ciprian Dobre, Radu-Ioan Ciobanu
Numar studenti: 1-2
Tema propune realizarea unei mini-aplicatii pentru recunoasterea afectiunilor asociate picioarelor. Aveti la dispozitie o camera Orbbec (dotata cu senzori de adancime) si trebuie sa construiti un avatar care sa instruiasca utilizatorul din fata camerei sa efectueze o serie de miscari. Utilizatorul apoi executa, si din ceea ce detectati, trebuie sa puneti un diagnostic daca utilizatorul are sau nu probleme cu articulatiile. Puteti face acest lucru inclusiv pe un Raspbery Pi, combinat cu o camera stereo.
T14.5: Protectia datelor personale
Coordonatori: Ciprian Dobre, Radu-Ioan Ciobanu
Numar studenti: 1-2
Tema propune investigarea unor tehnici de tip differential privacy pentru asigurarea increderii in date. Articolul de pornire pentru aceasta tema este acesta.
T14.6: Invatare federata oportunista
Coordonator: Radu-Ioan Ciobanu
Numar studenti: 2-3
Aplicatiile de calcul “pervasive” implica de obicei colectarea de date de la telefonul utilizatorului pentru a influenta comportamentul aplicatiei, care de multe ori invata din experientele utilizatorului pentru a oferi un comportament personalizat. In ultimii ani, invatarea federata a castigat amploare datorita capacitatii sale de a antrena modele partajate la nivel global pe datele private ale utilizatorilor, fara a le solicita utilizatorilor sa partajeze direct datele. Totusi, invatarea federata necesita ca dispozitivele sa colaboreze prin intermediul unui server central, in ideea ca toti utilizatorii vor invata acelasi model. Recent, s-a introdus un model nou numit “invatare federata oportunista”, unde dispozitive individuale apartinand utilizatorilor diferiti cauta sa invete modele robuste, personalizate la experientele proprii ale utilizatori lor. Cu toate acestea, in loc sa invete izolat, aceste modele incorporeaza in mod oportunist experientele altor dispozitive pe care le intalnesc. O astfel de abordare are potentialul de a amplifica performanta invatarii personalizate, rezistand in acelasi timp overfitting-ului pe datele intalnite. Ca un punct de start, va recomandam sa cititi acest articol.
T14.7: Detectie de anomalii folosind invatare federata nesupervizata
Coordonatori: Radu-Ioan Ciobanu, Ciprian Dobre
Numar studenti: 1-2
In majoritatea lucrarilor, invatarea federata se ocupa doar de sarcini supervizate, presupunand ca seturile de date pe care se aplica sunt etichetate. Aceasta tema implica extinderea paradigmei de invatare federata la sarcini nesupervizate prin abordarea detectiei anomaliilor in medii descentralizate. Ca un punct de start, va recomandam sa cititi acest articol.