Job Offer Announcement.

The project


Extended microbiome characterization by the exploitation of the microbial intra-community synergies — towards better understanding of the Exposome

In recent years the more focus has been placed on human exposome and how it affects human health and well-being. Exposome understood as the set of human environmental exposures (complementing the genome) from conception onward includes: a general external environment, a specific external environment, and internal environment factors. In all three categories, an alive part of the exposome are different microbiomes, e.g. urban microbiome, skin microbiome, gut microbiome.

There are many efforts around the world to pursue the knowledge behind many different types of microbiomes and to extract the information directly from metagenomes. Projects such as MetaHIT, Human Microbiome Project or American Gut Project/Microsetta Initiative had led to the growth of information about plenty of gut connected diseases such as obesity, inflammatory bowel syndrome or ulcerative colitis. Similar insight has been gained by projects focused on skin microbiota (The Human Skin Microbiome Project), environmental microbiome (Earth Microbiome Project), urban and subway microbiomes (MetaSUB International Consortium), and many more. However, only a few of them had also considered establishing interactions between microorganisms among themselves, with the environment, and with human beings as one of the main goals.

Microbiomes are diverse, dynamic, and complex parts of exposomes that are crucial for determining health. The composition of these biomes by nature is strongly related to the ecological niche they occupy and thus synergies and anergies are here dominant factors. Thus, the goal of the project is to extend our knowledge about interactions within and between features that arise in three complementary views on the microbiome: view through the lenses of compositional/taxonomical profile (i.e., abundance of microbial species), view through the lenses of functionalities related to the phenomena under scrutiny and view using variables derived directly from the samples (i.e., sequences obtained from a sample). Where in the last view no prior knowledge of microbial genomes and sequences of functional proteins are used.

In particular, we want to explore synergistic interactions between features and by this go beyond currently available approaches that are ill-fitted to analyse metagenomic data as they are not exploiting the existence of these relations.

Specifically, we will investigate synergies in three exposome related use-cases:

• Anomaly detection in microbiomes – identification of resistomes for AMR studies,
• Patient stratification – usage of microbiota profiles for establishing health status of the patient,
• Calculation of distances between microbiomes – prediction of the geographical origin of the sample.

The proposed type of analysis in the context of selected use-cases can lead to the discovery of new functionalities or new species that are relevant for the interesting phenomena.

The role
The tools we are going to use in the search of synergies are based on Multi Dimensional Feature Selection (MDFS) framework, developed by our team at the University of Białystok. MDFS is currently a statistical filter, aimed on identification of all the relevant features, that influence the response variable via multivariate interactions. It uses information measure of interactions to compute the test statistic. The computations are performed exhaustively for all the k-tuples of features, using GPU for better performance.

The first task for our team is adaptation of the MDFS software to microbiome analysis. This involves both programmer’s work, like handling the bigger amount of data, as well as pure statistical problems, like defining a significance criterion for synergistic interactions. New tools for exploration of the cluster structure of the data with respect to particular response variables will also be needed for our analyses.

The developed tools will be used to analyse data sets, coming from our partners at Jagiellonian University. Our task will involve identification of relevant features at three levels: taxonomical profiles, functionalities and genetic sequences, then finding all the interesting synergistic interactions between the variables. We will also explore the network or cluster structure of the data to obtain a deeper view into the human microbiome.

Skills/Qualifications
Requirements:
• PhD degree, preferably in computer science/mathematics/natural sciences/engineering;
• good practical programming skills, preferably in C/C++ and R;
• relevant knowledge in statistics;
• ability to understand scientific papers and to communicate scientific results in English.
Desirable qualifications:
• experience in machine learning techniques,
• experience in CUDA technology,
• experience in big data handling,
• experience in bioinformatics,
• knowledge about metagenomics.
PLEASE NOTE:
Due to NCN regulations we are not allowed to hire postdocs who obtained their PhDs at the University of Białystok, nor earlier than 7 years ago. More formal details can be found at https://www2.ncn.gov.pl/sites/default/files/pliki/uchwaly-rady/2020/uchwala61_2020-zal1.pdf, pages 35-36. For more information or to share your opinion, please contact the agency via e-mail: kancelaria@ncn.gov.pl.
We offer
• full-time employment from 01.03.2022 to 30.06.2025
• remuneration at the rates applicable to projects financed by the NCN for post-doc (i.e. 120 000 PLN per annum, total employment costs).
• opportunity to collaborate with world-class researchers from Jagiellonian University and University of Białystok, as well as institutions such as Weill Cornell Medicine, ETH Zurich, Acibadem University, East China Normal University
• scientific and professional mentorship,
• position 100% focused on research and development (no compulsory teaching),
• opportunity to work on an ambitious and important scientific problem with interdisciplinary applications,
• opportunity and support to participate scientific meetings across the globe,
• flexible working time,
• opportunity to work (partly) remotely.
How to inquire
Please send an email to k.mnich@uwb.edu.pl (in email title please include “SONATA BIS Research Associate” and your first and last names) with documents as specified below before 31th of January 2022.

List of documents:

• application form,
• CV including information on the candidate’s scientific, teaching and organisational achievements, list of publications etc,
• copy of the doctoral diploma,
• information regarding processing of personal data,

Projekt

Uniwersyteckie Centrum Obliczeniowe , ul. K. Ciołkowskiego 1M, 15-245 Białystok tel. 48 85 738 83 50

Oferta zatrudnienia na stanowisko Post-doc w projekcie badawczym pt: „Rozszerzona charakteryzacja mikrobiomu z wykorzystaniem synergii wewnętrznych społeczności mikrobiomowej dla lepszego zrozumienia Ekspozomu”

Nazwa jednostki: Uniwersyteckie Centrum Obliczeniowe, Uniwersytet w Białymstoku
Typ konkursu NCN: SONATA BIS – 10 (Narodowe Centrum Nauki)

Termin składania ofert: 17.06.2022r.

Forma składania ofert: e-mailowo na adres: k.mnich@uwb.edu.pl

Warunki zatrudnienia:
Miejsce pracy: Uniwersyteckie Centrum Obliczeniowe, Uniwersytet w Białymstoku

Okres trwania zatrudnienia: 34 miesiące

Data rozpoczęcia zatrudnienia: 01.09.2022r.

Wynagrodzenie: 10 000zł /miesiąc (kwota ta zawiera pozapłacowe koszty pracy, w tym składki na ubezpieczenie społeczne i zdrowotne oraz inne elementy wynagrodzenia finansowane przez podmiot zatrudniający. Ze środków tych pokrywane jest także dodatkowe wynagrodzenie roczne („trzynastka”)

Wymagania:
• stopień doktora informatyki, matematyki, nauk przyrodniczych lub technicznych;
• praktyczne umiejętności programowania, zwłaszcza w językach C/C++ i R;
• wiedza specjalistyczna w zakresie statystyki;
• znajomość języka angielskiego w stopniu wystarczającym do korzystania z literatury naukowej i publikowania wyników badań.
Pożądane kwalifikacje:
• doświadczenie w dziedzinie uczenia maszynowego,
• znajomość technologii CUDA,
• umiejętności w dziedzinie przetwarzania dużych zbiorów danych,
• kontakt zawodowy z bioinformatyką,
• wiedza w zakresie metagenomiki.
Opis zadań:
Stanowisko w ramach projektu NCN pt. „Rozszerzona charakteryzacja mikrobiomu z wykorzystaniem synergii wewnętrznych społeczności mikrobiomowej dla lepszego zrozumienia Ekspozomu ”. Głównym celem projektu jest badanie współzależności między występowaniem różnych mikroorganizmów w środowisku człowieka, zarówno w jego otoczeniu jak i wewnątrz organizmu.

Badania prowadzone są z użyciem zaawansowanych metod analizy danych, zawierających informacje o zidentyfikowanych gatunkach mikroorganizmów, profilach funkcjonalnych oraz o występowaniu poszczególnych fragmentów kodu genetycznego. Podstawowym narzędziem informatycznym do wykonywania analiz jest biblioteka MDFS, rozwijana przez zespół Uniwersytetu w Białymstoku.

Zadaniem pracownika będzie udział w rozwijaniu biblioteki w kierunku przystosowania jej do analiz mikrobiomu i wykrywania synergii. Prace te obejmują zarówno zadania programistyczne jak i teoretyczne opracowania z dziedziny statystyki. Równolegle, wypracowane metody będą stosowane do analiz zbiorów danych, dostarczonych przez zespół z Uniwersytetu Jagiellońskiego i Małopolskiego Centrum Biotechnologii.

Dodatkowe informacje:
W wyznaczonym terminie proszę przesłać e-mailem (w temacie wpisując – Ogłoszenie -post-doc, SONATA BIS – 10) na adres: dr Krzysztof Mnich mail: k.mnich@uwb.edu.pl następujące dokumenty:
• List motywacyjny wraz z opisem zainteresowań naukowych,
• CV uwzględniające ww. oczekiwania (dotychczasowe osiągnięcia w nauce, uzyskane stypendia ew. publikacje, nagrody i wyróżnienia, uczestnictwo w konferencjach, itp.)
• Kopię dokumentu potwierdzającego tytuł naukowy doktora.

Wybrane osoby zostaną indywidualnie zaproszone na rozmowę kwalifikacyjną. Wyniki konkursu zostaną ogłoszone do: 31.06.2022
Zasady oraz tryb przeprowadzania konkursu określa Załącznik nr 2 do Regulaminu przyznawania środków na realizację zadań finansowanych przez Narodowe Centrum Nauki w zakresie projektów badawczych, załączonego do uchwały Rady NCN nr 76/2018 z dnia 6 września 2018r.”

Prosimy o zamieszczenie następującej klauzuli w przesłanej dokumentacji:
„Wyrażam zgodę na przetwarzanie moich danych osobowych, zawartych w ofercie stypendialnej dla potrzeb niezbędnych dla realizacji procesu rekrutacji, zgodnie z Rozporządzeniem Parlamentu Europejskiego i Rady UE 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE w ramach realizacji obowiązku prawnego ciążącego na administratorze danych (art.6 ust.1 lit. a ) oraz ustawą z dnia 10 maja 2018 r. o ochronie danych osobowych (Dz.U.2018 poz.1000).

Dane osobowe zawarte w CV, zbierane są i będą przetwarzane wyłącznie w celu rekrutacji na stanowisko określone w ogłoszeniu, prowadzonej przez Uniwersyteckie Centrum Obliczeniowe Uniwersytetu w Białymstoku. Wyrażenie zgody na przetwarzanie danych osobowych, jest dobrowolne, ale konieczne do wzięcia udziału w rekrutacji. Oświadczam, że zostałem/am, poinformowany/a, że mam prawo w dowolnym momencie wycofać zgodę.”


Dodatkowych informacji udziela kierownik projektu:

dr Krzysztof Mnich, mail k.mnich@uwb.edu.pl

Na Uniwersytecie w Białymstoku pojawił się Thor, czyli „superkomputer”. Będzie badał przyczyny zeświecczenia społeczeństwa

Choć na pierwszy rzut oka wygląda niepozornie, jest co najmniej 10 razy szybszy niż jego odpowiednik z Bostonu, zwany „Bestią”. Mowa o komputerze, który został już zainstalowany na Uniwersytecie w Białymstoku. Posłuży do komputerowych symulacji sekularyzacji współczesnych społeczeństw. Międzynarodowym projektem badawczym, w ramach którego został zakupiony Thor, kieruje prof. UwB Konrad Talmont-Kamiński. Projekt prowadzony jest we współpracy z norweskim centrum badawczym NORCE.

Badacze będą poszukiwać odpowiedzi na pytanie, dlaczego w niektórych społeczeństwach postępuje zeświecczenie, czemu ich mieszkańcy coraz rzadziej identyfikują się z jakimikolwiek religiami, od czego zależą i do czego mogą prowadzić takie zmiany. Do ustalenia i opisania mechanizmów poznawczych i kulturowych, które leżą u podstaw tych ważnych społecznych przemian, naukowcy wykorzystają zaawansowane metody komputerowego modelowania wieloagentowego.

Chcemy porównać szereg aspektów sekularyzacji. Uwzględniając m.in. szeroką wiedzę demograficzną, psychologiczną, socjologiczną stworzymy komputerowe modele społeczeństw złożone z setek tysięcy tzw. agentów, czyli wirtualnych osób – tłumaczy prof. Konrad Talmont-Kamiński. – Tak wymodelowane społeczeństwa muszą być oczywiście jak najbliższe prawdziwym, dlatego każdy z agentów będzie miał swoją charakterystykę, uwzględniającą kilkadziesiąt różnych zmiennych istotnych z punktu widzenia celu naszych badań. To np. wiek, płeć, zmienne związane wprost z religijnością czy systemem poznawczym danej osoby oraz ich relacje z innymi agentami.

Agenci będą wchodzić ze sobą w różnego typu indywidualne interakcje, na wzór tych w rzeczywistym świecie. Będą też poddani wpływowi różnych zjawisk społecznych, choćby takich jak epidemie czy zmiany polityczne. Autorzy komputerowych modeli będą mogli obserwować jak zmieniają się agenci i ich społeczeństwa na przestrzeni czasu – coś, co normalnie zajęłoby dekady i nie pozwalałoby na wprowadzanie dowolnych zmian.

Już po szczegółowej analizie dostępnych danych statystycznych z European Values Study (EVS) widzimy, że w społeczeństwach, które się sekularyzują, religijność spada w okresie socjalizacji, mniej więcej pomiędzy 15 a 25 rokiem życia. Później ten poziom religijności utrzymuje się na podobnym poziomie przez resztę życia. Przeczy to powszechnym wyobrażeniom, że na starość ludzie robią się bardziej religijni. Zjawisko sekularyzacji ma charakter kohortowy, pokoleniowy – mówi białostocki naukowiec.

Autorzy badań będą musieli przeprowadzić wiele tysięcy symulacji, które pokażą wpływ poszczególnych zmiennych na poziomie społecznym, takich jak skład lub struktura modelowanych społeczeństw, na badane aspekty sekularyzacji. Przy tak dużych, skomplikowanych modelach oznacza to ogromne ilości obliczeń. Nie byłyby one możliwe bez komputera o bardzo dużej mocy obliczeniowej.

Thor stanął w Uniwersyteckim Centrum Obliczeniowym w kampusie UwB.

Thor jest najmocniejszym serwerem w UCO, o mocy obliczeniowej większej o rząd wielkości w porównaniu ze standardowymi węzłami klastra obliczeniowego Esperanto. Jest on wyposażony w dwa 64-rdzeniowe procesory AMD EPYC 7H12 i 2 TB (terabajty) pamięci RAM, a także w akcelerator GPU firmy NVIDIA. Serwer o takich możliwościach jest niezwykle atrakcyjną platformą obliczeniową nie tylko dla zespołu prof. Talmonta-Kamińskiego. W czasie, gdy nie będzie w pełni wykorzystywany przez zespół projektu, będzie udostępniany innym użytkownikom. Serwer jest podłączony do infrastruktury UCO i jest na nim zainstalowane wybrane oprogramowanie naukowe, w szczególności program Gaussian, służące do obliczeń kwantowych. Ogromna pamięć operacyjna Thora stwarza zupełnie nowe możliwości obliczeń zaawansowanych modeli teoretycznej chemii kwantowej, więc w pierwszym rzędzie w kolejce do wykorzystania Thora ustawili się chemicy kwantowi. Dostęp do maszyny o takim potencjale otworzy również nowe możliwości innym użytkownikom: pozwoli na projektowanie badań, które nie miały szans powodzenia na mniejszych serwerach – wyjaśnia dr hab. Witold Rudnicki prof. UwB, dyrektor Uniwersyteckiego Centrum Obliczeniowego.

Dzięki modelowaniu komputerowemu i obliczeniom dokonanym przez Thora, badacze będą mogli nie tylko przewidzieć możliwe kierunki zmian społecznych, ale też sprawdzić wiele tez i teorii społecznych.

Ta innowacyjna metoda badawcza pozwala łączyć różnorakie teorie dotyczące indywidualnych i społecznych mechanizmów i szybko badać ich znaczenie dla sekularyzacji. To podejście w naukach społecznych jest obecnie stosowane tylko w niewielkiej, lecz szybko rosnącej liczbie ośrodków badawczych, do których właśnie dołączył Uniwersytet w Białymstoku. Sprzęt wykorzystywany w projekcie został zaprojektowany specjalnie na potrzeby modelowania procesów społecznych i będzie najbardziej zaawansowanym tego typu systemem na świecie. Przeprowadziliśmy testy, z których wynika, że te same operacje wykonuje co najmniej dziesięciokrotnie szybciej niż największy jak dotąd tego typu komputer na świecie – „Bestia” używana w Center for Mind and Culture w Bostonie. To wszystko sprawia, że nasz projekt jest światowej klasy przedsięwzięciem badawczym, wnoszącym ogromny wkład w dziedzinę nauk społecznych – podkreśla prof. Konrad Talmont-Kamiński.

Najbliższe miesiące zespół badawczy pod kierunkiem prof. Talmonta-Kamińskiego poświęci na opracowanie modelu wieloagentowego opartego na teorii prof. Davida Voasa, dotyczącej przebiegu procesu sekularyzacji w krajach europejskich, oraz na wykonanie badań empirycznych dających dane wstępne do dalszych modeli. W przedsięwzięcie zaangażowani są naukowcy z Polski, Norwegii, USA i Wielkiej Brytanii.

Tytuł projektu brzmi: „Religia, ideologia i pro-społeczność: symulowanie sekularyzacji społeczeństw”. Badacz z UwB otrzymał na jego realizację ponad 5,5 mln zł w konkursie GRIEG zorganizowanym przez Narodowe Centrum Nauki i finansowanym w ramach Norweskiego Mechanizmu Finansowego 2014-2020. Partnerem białostockiej uczelni w projekcie jest NORCE Norwegian Research Centre AS – niezależny instytut badawczy z Norwegii. Realizacja projektu potrwa do 2023 roku.

źródło: Kurier Poranny

W takcie sesji przedstawiono wyniki badań prowadzonych w UCO przez naukowców z Uniwersytetu w Białymstoku. Zaprezentowanych zostało 13 referatów z różnych dziedzin wiedzy: chemii obliczeniowej, fizyki obliczeniowej, informatyki i bioinformatyki.

Plan Sesji Sprawozdawczej Użytkowników Uniwersyteckiego Centrum Obliczeniowego. 

9:00 Otwarcie sesji sprawozdawczej

Sesja 1 – Fizyka obliczeniowa: 

9:00-9:15 Krzysztof Szymański, Wydział Fizyki, grant GO-045 “Obrazowanie tensora dyfuzji na podstawie danych z rezonansu magnetycznego.”

9:15-9:30 Jan Kisielewski, Wydział Fizyki, grant GO-023 “Atomistyczne i mikromagnetyczne modelowanie statyki i dynamiki namagnesowania w ultracienkich warstwach metalicznych.”

9:30-9:45 Mirosław Brewczyk, Wydział Fizyki, grant GO-025 “Badanie niestabilności ferromagnetycznej w dwuskładnikowym gazie Fermiego.” 

9:45-10:00 Tomasz Karpiuk, Wydział Fizyki, grant GO-025 “Badanie niestabilności ferromagnetycznej w dwuskładnikowym gazie Fermiego.”

Sesja 2 – Chemia obliczeniowa: 

10:00-10:15 Artur Ratkiewicz,  Wydział Chemii, grant GO-008 “Kinetyka reakcji elementarnych istotnych w modelowaniu procesów spalania.”

10:15-10:30 Sławomir Wojtulewski, Wydział Chemii, grant GO-014 “Analiza oddziaływań niekowalencyjnych w układach karboksylowych pochodnych heterocyklicznych pierścieni aromatycznych.”

10:30-10:45 Maciej Baradyn,  Wydział Chemii, grant GO-008 “Kinetyka reakcji elementarnych istotnych w modelowaniu procesów spalania.”

10:45-11:00 Przerwa

Sesja 3 – Informatyka: 

11:00-11:15 Dominik Tomaszuk, Instytut Informatyki, granty GO-033 “ChemSKOS” i GO-049 “Transformacja grafów własności do grafów RDF przy użyciu PG2RML.

11:15-11:30 Artur Korniłowicz, Instytut Informatyki, grant GO-001 “Rozwój systemu Mizar oraz Mizar Mathematical Library.”

11:30-11:45 Krzysztof Mnich, Uniwersyteckie Centrum Obliczeniowe, “Superlearning i jego ulepszenia”. Grant GO-005 ”Rozwój metod selekcji zmiennych.” 

Sesja 4 – Bioinformatyka:

11:45-12:00 Aneta Polewko-Klim, Instytut Informatyki, grant GO-034 “Komitety algorytmów filtrowania zmiennych w identyfikacji kluczowych markerów molekularnych istotnych w leczeniu chorób nowotworowych.”

12:00-12:15 Wojciech Lesiński, Instytut Informatyki, grant GO-005 ”Rozwój metod selekcji zmiennych.” 

12:15-12:30 Agnieszka Golińska, Instytut Informatyki, grant GO-028 “Budowanie modeli predykcyjnych arytmii z wykorzystaniem uczenia maszynowego.”

Nowy grant w UCO.

Wysyłanie zapytań do obszernych źródeł danych może prowadzić do obliczania wyników zapytań o dużej kardynalności i dużych rozmiarach, których użytkownicy z trudem mogą zrozumieć. W badaniach skupię się na zapytaniach z progami, które pomagają użytkownikowi nawigować po wynikach zapytania zliczając liczbę wyników do wartości progowej. Ten typ zapytań są często spotykany w kilku rzeczywistych aplikacjach, takich jak interakcja danych, wizualizacja danych, eksploracja danych przechowywanie danych i monitorowanie danych. Zapytania z progiem mają zastosowanie zarówno na danych tabelarycznych, jak również na danych grafowych. Zbiór danych jaki będzie sprawdzany to Wikidata.

Kierownik

dr Dominik Tomaszuk

Nowy serwer w UCO

W wyniku współpracy UCO z Zakładem Socjologii Poznawczej z Instytutu Socjologii udało się sfinalizować zakup serwera obliczeniowego o dużej mocy (128 rdzeni CPU, 2 TB RAM, NVIDIA Tesla V100S 32 GB, Infiniband) na potrzeby międzynarodowego projektu grantowego modelowania, symulacji i analizy szczegółowych struktur społecznych pod kątem religijności i sekularyzacji.

Dlaczego różne mikroorganizmy współistnieją w różnych środowiskach i jak na siebie wzajemnie oddziałują? Odpowiedzi będą poszukiwać wspólnie bioinformatycy z Małopolskiego Centrum Biotechnologii Uniwersytetu Jagiellońskiego i informatycy z Uniwersytetu w Białymstoku. Konsorcjum złożone z tych dwóch uczelni uzyskało grant w rozstrzygniętym właśnie konkursie SONATA BIS zorganizowanym przez Narodowe Centrum Nauki.

Liderem projektu, wartego w sumie 2 784 522 zł, będzie Małopolskie Centrum Biotechnologii UJ, a badania zrealizuje zespół dr. hab. inż. Pawła Łabaja. Pracami po stronie UwB pokieruje dr Krzysztof Mnich z Uniwersyteckiego Centrum Obliczeniowego, który będzie współpracować z Instytutem Informatyki UwB. Na swoje projektowe zadania największa podlaska uczelnia otrzyma ponad 966 tys. zł.

Tytuł projektu brzmi: „Rozszerzona charakteryzacja mikrobiomu z wykorzystaniem synergii wewnętrznych społeczności mikrobiomowej dla lepszego zrozumienia ekspozomu”.

Jak wyjaśniają naukowcy, dzięki badaniom naukowym coraz lepiej rozumiemy jak bardzo na zdrowie i dobrobyt człowieka wpływa środowisko – w tym wszelkiego rodzaju społeczności mikroogranizmów (mikrobiomy) żyjące w naszym otoczeniu: w miastach, miejscach pracy, domu, „na nas” (skóra) czy „w nas” (układ pokarmowy). Wszystkie te mikrobiomy wchodzą w skład tzw. ekspozomu, czyli sumy czynników oddziałujących na organizm.Dzięki najnowszym technologiom sporo wiemy o poszczególnych mikrobiomach, np. o mikrobiomie jelitowym i jego związkach z takimi chorobami, jak np. zespół jelita drażliwego czy wrzodziejące zapalenie jelita grubego, albo o mikroorganizmach rezydujących w systemach transportu publicznego. Natomiast nadal brakuje nam wiedzy dlaczego pewne gatunki żyją razem w określonych miejscach, regionach i warunkach – wyjaśnia dr hab. Witold Rudnicki prof. UwB, dyrektor Uniwersyteckiego Centrum Obliczeniowego UwB. – W naszym przekonaniu mikroorganizmy należałoby postrzegać jako jeden „metaorganizm”, w którym rozmaite drobnoustroje realizują konkretne, unikalne funkcje, oddziałując na siebie nawzajem i zapewniając sobie wzajemnie ?samopodtrzymujące się? środowisko życia.

Badacze chcą kompleksowo przeanalizować tysiące różnych mikroorganizmów, dowiedzieć się, które gatunki przyczyniają się do rozwoju swoich społeczności, jakie zależności warunkują ich przetrwanie, jakie są widoczne i dyskretne powiązania między różnymi drobnoustrojami. Pomóc ma w tym nowatorskie podejście Data Science i Big Data.

Istnieje ogromna ilość danych metagenomicznych, czyli danych o łącznej informacji genetycznej mikroorganizmów znajdujących się w jednej próbce, które były zebrane i badane w wielu projektach na całym świecie. Próbki były pobierane z rozmaitych miejsc, czy na przykład od osób chorych na różne choroby. Dane dotyczą zidentyfikowanych mikroorganizmów, zależności między nimi, jakie da się zaobserwować, albo składu badanego materiału genetycznego. Chcemy tę wiedzę połączyć, a potem przeszukiwać dane pod kątem specyficznych informacji, kontekstów występowania mikroorganizmów o określonych cechach – zapowiada dr hab. inż. Paweł Łabaj z Małopolskiego Centrum Biotechnologii UJ.

Naszą rolą będzie dostarczenie narzędzi informatycznych do analiz relacji między drobnoustrojami w mikrobiomach, zachodzących tam synergii. Stworzymy programy wykorzystujące zaawansowane techniki uczenia maszynowego, które pozwolą wyłuskać nieoczywiste na pierwszy rzut oka relacje między mikroorganizmami, które są jednak kluczowe dla egzystencji całego mikrobiomu – mówi dr Krzysztof Mnich z Uniwersyteckiego Centrum Obliczeniowego UwB.
Jak mówią naukowcy, uzyskana w ten sposób wiedza może przynieść wiele nowych informacji np. na temat zmian zachodzących w środowisku, przyczyn i przebiegu niektórych chorób czy czynników sprzyjających ich rozprzestrzenianiu.

Projekt będzie realizowany przez 4 lata.

Czy da się policzyć, ile osób na świecie faktycznie choruje na COVID-19, skoro w różnych krajach testy na obecność wirusa przeprowadza się z różną intensywnością? Informatycy z Uniwersytetu w Białymstoku opracowali modele, dzięki którym te liczby można szacować na bieżąco. Wyniki prezentowane są na stworzonej przez nich stronie internetowej covid-model.net.

– Rzeczywisty globalny zasięg pandemii COVID-19, zdefiniowany jako liczba osób naprawdę zakażonych SARS-CoV-2, jest z pewnością znacznie większy niż oficjalnie odnotowana liczba przypadków. To dlatego, że w bardzo niewielu krajach procedury śledzenia przebiegu epidemii i testowania obywateli na obecność wirusa są wystarczająco rzetelne i szerokie, aby wykryć wszystkie lub prawie wszystkie infekcje. Dlatego prawdziwa liczba przypadków zakażeń jest nieznana – ocenia dr hab. Witold Rudnicki prof. UwB, dyrektor Uniwersyteckiego Centrum Obliczeniowego, pomysłodawca modelu i kierownik prac nad nim.

Strona stworzona przez białostockich informatyków przedstawia szacunkową ocenę zasięgu pandemii COVID-19 we wszystkich krajach świata. Szacunki podawane są jednak tylko dla tych państw, które zarejestrowały co najmniej 30 zgonów przypisanych bezpośrednio do COVID-19. Jak mówią autorzy, przy mniejszych liczbach modelowanie staje się nieefektywne.

– Modelowanie opiera się na założeniu, że podstawowa śmiertelność wśród zakażonych w różnych krajach powinna być podobna, a widoczne w dostępnych danych różnice śmiertelności wynikają w bardzo dużym stopniu z niewystarczającego testowania na obecność wirusa SARS-CoV-2 pacjentów z objawami łagodnymi i przypadków bezobjawowych, zakażonych – wyjaśnia dr hab. Witold Rudnicki.

I zastrzega:

– Stworzone przez nas modelowanie jest oczywiście bardzo dużym uproszczeniem, pomijającym wiele znanych czynników wpływających na śmiertelność, jednak stanowi ujednolicone podejście, dające systematyczne oszacowanie zasięgu epidemii COVID-19, niezależne od liczby testów i procedur testowych w poszczególnych krajach. Należy też podkreślić, że podstawowym założeniem modelu jest oparcie się na danych dotyczących liczby zgonów związanych z epidemią COVID. Jeżeli liczba zgonów jest mało wiarygodna, to i wyniki modelu nie będą wiarygodne. Dlatego należy ich używać ze świadomością jego ograniczeń. W szczególności, wyniki modelu można skorygować indywidualnie dla każdego kraju, wprowadzając czynniki korekcyjne odpowiadające warunkom specyficznym dla danego państwa.

Mogą to być takie wskaźniki wpływające na śmiertelność, jak struktura ludności kraju, częstość występowania dodatkowych chorób i zdolność systemu opieki zdrowotnej do radzenia sobie z liczbą przypadków.

Szacunek opracowany przez informatyków z UwB opiera się na porównaniu umieralności w kraju docelowym, na przykład w Polsce, Wielkiej Brytanii czy USA, z krajem odniesienia czyli Niemcami.

– Opracowaliśmy trzy proste, statystyczne modele obliczania śmiertelności (używające różnych przybliżeń), które są oparte na historii epidemii w Niemczech. Modele te są stosowane do obliczenia śmiertelności zarówno w Niemczech, jak i w krajach docelowych. Następnie śmiertelności obliczone przy użyciu tych modeli są używane do oszacowania liczby przypadków zakażeń w krajach docelowych. Dane są aktualizowane codziennie, a śmiertelność jest przeliczana przy każdej ich aktualizacji, dlatego szacunki liczby zakażeń zmieniają się z dnia na dzień – mówi dr hab. Witold Rudnicki.

Jako kraj odniesienia badacze wybrali Niemcy, ponieważ spośród krajów o dużej liczbie przypadków i zgonów, w Niemczech testowanie jest prowadzone najszerzej. Według danych serwisu worldometers.info z 8 kwietnia 2020 r. wykonano tam 1 317 887 testów (druga co do wielkości liczba na świecie), czyli 15 730 na milion mieszkańców. Ponadto Niemcy mają dużą liczbę zarejestrowanych przypadków infekcji (113 296 ogółem) oraz dużą liczbę zgonów przypisywanych do COVID-19 (2 349 ogółem).

Aby oszacować łączną liczbę osób zakażonych dla pozostałych krajów, informatycy wykorzystują następujący wzór: E  = TC  x Md  / Mo, gdzie E to oszacowana prawdziwa liczba przypadków w danym kraju docelowym, TC oznacza oficjalnie zarejestrowaną tam liczbę przypadków, Md jest oszacowaniem śmiertelności dla kraju docelowego, a Mo jest oceną śmiertelności w kraju odniesienia (w Niemczech).

Informatycy aktualizują swoje szacunki zasięgu epidemii raz na dobę, w oparciu o dane o potwierdzonych zakażeniach i zgonach na świecie udostępniane przez John Hopkins University z USA. Na stronie covid-model.net prezentowane są zarówno wartości uśrednione, jak i wynikające z zastosowania każdego z trzech szczegółowych modeli statystycznych.

Czy da się policzyć, ile osób na świecie faktycznie choruje na COVID-19, skoro w różnych krajach testy na obecność wirusa przeprowadza się z różną intensywnością? Informatycy z Uniwersytetu w Białymstoku opracowali modele, dzięki którym te liczby można szacować na bieżąco. Wyniki prezentowane są na stworzonej przez nich stronie internetowej covid-model.net.

– Rzeczywisty globalny zasięg pandemii COVID-19, zdefiniowany jako liczba osób naprawdę zakażonych SARS-CoV-2, jest z pewnością znacznie większy niż oficjalnie odnotowana liczba przypadków. To dlatego, że w bardzo niewielu krajach procedury śledzenia przebiegu epidemii i testowania obywateli na obecność wirusa są wystarczająco rzetelne i szerokie, aby wykryć wszystkie lub prawie wszystkie infekcje. Dlatego prawdziwa liczba przypadków zakażeń jest nieznana – ocenia dr hab. Witold Rudnicki prof. UwB, dyrektor Uniwersyteckiego Centrum Obliczeniowego, pomysłodawca modelu i kierownik prac nad nim.

Strona stworzona przez białostockich informatyków przedstawia szacunkową ocenę zasięgu pandemii COVID-19 we wszystkich krajach świata. Szacunki podawane są jednak tylko dla tych państw, które zarejestrowały co najmniej 30 zgonów przypisanych bezpośrednio do COVID-19. Jak mówią autorzy, przy mniejszych liczbach modelowanie staje się nieefektywne.

– Modelowanie opiera się na założeniu, że podstawowa śmiertelność wśród zakażonych w różnych krajach powinna być podobna, a widoczne w dostępnych danych różnice śmiertelności wynikają w bardzo dużym stopniu z niewystarczającego testowania na obecność wirusa SARS-CoV-2 pacjentów z objawami łagodnymi i przypadków bezobjawowych, zakażonych – wyjaśnia dr hab. Witold Rudnicki.

I zastrzega:

– Stworzone przez nas modelowanie jest oczywiście bardzo dużym uproszczeniem, pomijającym wiele znanych czynników wpływających na śmiertelność, jednak stanowi ujednolicone podejście, dające systematyczne oszacowanie zasięgu epidemii COVID-19, niezależne od liczby testów i procedur testowych w poszczególnych krajach. Należy też podkreślić, że podstawowym założeniem modelu jest oparcie się na danych dotyczących liczby zgonów związanych z epidemią COVID. Jeżeli liczba zgonów jest mało wiarygodna, to i wyniki modelu nie będą wiarygodne. Dlatego należy ich używać ze świadomością jego ograniczeń. W szczególności, wyniki modelu można skorygować indywidualnie dla każdego kraju, wprowadzając czynniki korekcyjne odpowiadające warunkom specyficznym dla danego państwa.

Mogą to być takie wskaźniki wpływające na śmiertelność, jak struktura ludności kraju, częstość występowania dodatkowych chorób i zdolność systemu opieki zdrowotnej do radzenia sobie z liczbą przypadków.

Szacunek opracowany przez informatyków z UwB opiera się na porównaniu umieralności w kraju docelowym, na przykład w Polsce, Wielkiej Brytanii czy USA, z krajem odniesienia czyli Niemcami.

– Opracowaliśmy trzy proste, statystyczne modele obliczania śmiertelności (używające różnych przybliżeń), które są oparte na historii epidemii w Niemczech. Modele te są stosowane do obliczenia śmiertelności zarówno w Niemczech, jak i w krajach docelowych. Następnie śmiertelności obliczone przy użyciu tych modeli są używane do oszacowania liczby przypadków zakażeń w krajach docelowych. Dane są aktualizowane codziennie, a śmiertelność jest przeliczana przy każdej ich aktualizacji, dlatego szacunki liczby zakażeń zmieniają się z dnia na dzień – mówi dr hab. Witold Rudnicki.

Jako kraj odniesienia badacze wybrali Niemcy, ponieważ spośród krajów o dużej liczbie przypadków i zgonów, w Niemczech testowanie jest prowadzone najszerzej. Według danych serwisu worldometers.info z 8 kwietnia 2020 r. wykonano tam 1 317 887 testów (druga co do wielkości liczba na świecie), czyli 15 730 na milion mieszkańców. Ponadto Niemcy mają dużą liczbę zarejestrowanych przypadków infekcji (113 296 ogółem) oraz dużą liczbę zgonów przypisywanych do COVID-19 (2 349 ogółem).

Aby oszacować łączną liczbę osób zakażonych dla pozostałych krajów, informatycy wykorzystują następujący wzór: E  = TC  x Md  / Mo, gdzie E to oszacowana prawdziwa liczba przypadków w danym kraju docelowym, TC oznacza oficjalnie zarejestrowaną tam liczbę przypadków, Md jest oszacowaniem śmiertelności dla kraju docelowego, a Mo jest oceną śmiertelności w kraju odniesienia (w Niemczech).

Informatycy aktualizują swoje szacunki zasięgu epidemii raz na dobę, w oparciu o dane o potwierdzonych zakażeniach i zgonach na świecie udostępniane przez John Hopkins University z USA. Na stronie covid-model.net prezentowane są zarówno wartości uśrednione, jak i wynikające z zastosowania każdego z trzech szczegółowych modeli statystycznych.

Katarzyna Dziedzik 

 

Uniwersyteckie Centrum Obliczeniowe (UCO) Uniwersytetu w Białymstoku uruchomiło chmurę obliczeniową – nowe narzędzie, dzięki któremu dostęp do mocy obliczeniowych komputerów Centrum będzie łatwiejszy. O możliwościach, jakie daje ta technologia, będzie mowa na konferencji z udziałem naukowców i praktyków z branży IT. Spotkanie odbędzie się 4 lutego 2020 od godz. 10.00 w auli gmachu Matematyki i Informatyki UwB (kampus przy ul. Ciołkowskiego). 

Uniwersyteckie Centrum Obliczeniowe (UCO) Uniwersytetu w Białymstoku uruchomiło chmurę obliczeniową – nowe narzędzie, dzięki któremu dostęp do mocy obliczeniowych komputerów Centrum będzie łatwiejszy. O możliwościach, jakie daje ta technologia, będzie mowa na konferencji z udziałem naukowców i praktyków z branży IT. Spotkanie odbędzie się 4 lutego 2020 od godz. 10.00 w auli gmachu Matematyki i Informatyki UwB (kampus przy ul. Ciołkowskiego). 

– Przez dziesięciolecia największe komputery znajdowały się w akademickich i militarnych centrach obliczeniowych i służyły do rozwiązywania problemów technicznych i naukowych przy użyciu zaawansowanych metod obliczeniowych. Dostęp do tych komputerów ograniczony był do wąskiego grona wysoko wykwalifikowanych fachowców – przypomina dr hab. Witold. R. Rudnicki prof. UwB, dyrektor Uniwersyteckiego Centrum Obliczeniowego. – Dzisiaj, dzięki technologii chmur, dostęp do mocy obliczeniowych stał się praktycznie powszechny. Komercyjnie oferują go chmury m.in. takich firm, jak Google czy Amazon.

Dzięki temu, że Uniwersyteckie Centrum Obliczeniowe uruchomiło własną chmurę,  będzie mogło udostępniać swoje moce obliczeniowe bardziej elastycznie. Co ważne, UCO oferuje też użytkownikom wsparcie merytoryczne swoich pracowników. To otwiera nowe możliwości współpracy z partnerami zewnętrznymi.

– Chcemy wykorzystywać zasoby UCO w większym stopniu, nie tylko w pracach naukowych i działaniach edukacyjnych, ale także badawczo-rozwojowych. Dzięki chmurze jesteśmy jeszcze atrakcyjniejszym partnerem dla firm zainteresowanych realizacją projektów B+R dotyczących technologii informacyjnych czy sztucznej inteligencji. Jesteśmy też otwarci na wsparcie pomysłodawców innowacyjnych rozwiązań na najwcześniejszym etapie ich realizacji, a także startupów. Konferencja będzie znakomitą okazją do nawiązania takiej współpracy – mówi dr hab. Jarosław Matwiejuk, prorektor ds. rozwoju Uniwersytetu w Białymstoku.

Konferencja ma na celu przedstawienie możliwości, ale i wyzwań związanych z chmurami obliczeniowymi dla biznesu, nauki, edukacji. Prelegenci wywodzą się ze środowiska naukowego (Uniwersytet w Białymstoku, Uniwersytet Warszawski, Uniwersytet Kardynała Stefana Wyszyńskiego) oraz biznesowego (polski oddział firmy Google, 7bulls.com, AI Investments, Transition Technologies PSC, Elastic Cloud Solution).

Do udziału w konferencji organizatorzy zapraszają w szczególności pracowników naukowych i studentów, a także przedstawicieli środowiska biznesowego, sektora publicznego i edukacyjnego. Rejestracja odbywa się przez stronę internetową wydarzenia, tam też można znaleźć jego program. Udział w konferencji jest bezpłatny.

Kilkanaście zespołów naukowych z Uniwersytetu w Białymstoku skorzystało w 2016 roku z możliwości, jakie daje klaster obliczeniowy w Uniwersyteckim Centrum Obliczeniowym UwB (UCO). Działa ono pełny rok i właśnie podsumowało swoje osiągnięcia.

Duża część zespołów realizowała projekty we współpracy z innymi instytucjami krajowymi (Uniwersytet Warszawski, Politechnika Łódzka) i zagranicznymi (z Litwy, Białorusi i Holandii).

UCO działa w systemie grantowym: naukowcy, którzy chcą skorzystać z obliczeń, składają wniosek o utworzenie grantu obliczeniowego, zawierający m.in. opis badań oraz stosowanej metodologii obliczeniowej i wnioskowanych zasobów (czasu procesorów, pamięci dyskowej i oprogramowania). Moce obliczeniowe przydzielane są zgodnie z zapotrzebowaniem, automatycznie przez nadzorujący pracę klastra UCO system kolejkowy. Zespół Centrum oferuje też wsparcie merytoryczne w zakresie optymalizacji obliczeń.

Mniej kosztowne, bezpieczniejsze
Moce obliczeniowe klastra UCO w 2016 r. zostały wykorzystywane do badań z zakresu informatyki (w tym bioinformatyki), chemii, matematyki, inżynierii materiałowej, fizyki i biologii. Swoje testowe obliczenia prowadzili też informatycy zajmujący się administrowaniem oraz nadzorem nad sprzętem i oprogramowaniem wykorzystywanym w Centrum.

Obliczenia to niezwykle ważna i pomocna metoda badań we współczesnej nauce. Jak podkreślają naukowcy – to dużo mniej kosztowny niż klasyczne eksperymenty, a jednocześnie bardzo efektywny sposób odkrywania i przewidywania mechanizmów i skutków różnych zjawisk chemicznych czy fizycznych. Modelowanie ma jeszcze jedną przewagę nad eksperymentowaniem: jest bezpieczne, nie wymaga bezpośredniego kontaktu z badanym materiałem. Wśród projektów, które skorzystały z infrastruktury UCO w 2016 r., były m.in. badania nad chemicznymi gazami bojowymi zalegającymi w Bałtyku czy absorbcją związków zawartych w lekach przeciwbólowych, które wydalane z naszych organizmów trafiają do środowiska i zanieczyszczają je. Autorzy innego grantu obliczeniowego zajmowali się prognozowaniem przeżywalności pacjentów z nieoperacyjnym rakiem prostaty i wpływu wybranych leków, na podstawie danych z badań klinicznych.

Punktowane publikacje
Obliczenia prowadzone w UCO zostały wykorzystane już do 12 publikacji naukowych (publikowanych lub przyjętych do druku). Osiem z nich to publikacje w wysoko punktowanych czasopismach (25 i więcej punktów według punktacji MNiSW). Kolejnych dziewięć publikacji jest w przygotowaniu lub czeka na recenzje.

Komputery UCO realizują obliczenia z wykorzystaniem standardowego oprogramowania naukowego – akademickiego i komercyjnego, a także programów autorstwa samych użytkowników.

Uniwersyteckie Centrum Obliczeniowe powstało w 2015 roku, dzięki dofinansowaniu Unii Europejskiej, jako jeden z elementów projektu budowy i wyposażenia kampusu UwB. Centrum mieści się w budynku Wydziału Matematyki i Informatyki.

Zapraszamy do udziału w Sesji Sprawozdawczej Uniwersyteckiego Centrum Obliczeniowego

Zapraszamy do udziału w Sesji Sprawozdawczej Uniwersyteckiego Centrum Obliczeniowego, która odbędzie się 7 lutego 2017 r., w godzinach 13.30-17.00, w sali 2012 na Wydziale Matematyki i Informatyki UwB.

 W takcie sesji zostaną przedstawione wyniki badań prowadzonych w UCO przez naukowców z Uniwersytetu w Białymstoku. Zaprezentowanych zostanie 10 referatów z różnych dziedzin wiedzy: chemii obliczeniowej, fizyki materiałów, informatyki, bioinformatyki i matematyki.