Evolusi Arsitektur Intelligent Transport System (ITS)
Menggunakan Cloud Computing
Fatur Rahman Universitas Gunadarma
Update: June 23, 2019
1
Pendahuluan
Dalam beberapa
tahun terakhir istilah
Intelligent Transport System
(ITS) telah muncul,
yang mengacu pada fakta
mengubah sistem transportasi melalui penggunaan TIK dan infrastruktur terkait.
ITS dapat didefinisikan
sebagai penerapan sensor canggih, komputer, elektronik, dan teknologi
komunikasi dan strategi manajemen secara
terpadu untuk meningkatkan keamanan dan efisiensi sistem transportasi permukaan. ITS memiliki potensi untuk
menyelesaikan tantangan paling
umum terkait dengan
sistem transportasi baru-baru ini seperti - kemacetan lalu lintas yang padat di kota-kota besar,
manajemen lalu lintas
yang buruk, layanan yang tidak dapat diandalkan, dll.
Selain itu, terlihat bahwa ITS memiliki kemungkinan untuk bertindak sebagai
faktor kunci untuk
pertumbuhan ekonomi di banyak
negara.
Cloud Computing menawarkan sumber daya komputasi
yang didistribusikan secara
geografis sebagai layanan
untuk pengguna berdasarkan permintaan dengan mengambil keuntungan dari
teknologi virtual- isasi. Istilah
komputasi awan didefinisikan dalam
sebagai model komputasi yang menggabungkan beberapa teknologi seperti - komputasi
utilitas, komputasi grid, Layanan Berorientasi Arsitektur (Service-Oriented Architectures), layanan
web, dll. Untuk menyediakan layanan
yang di-host melalui
jaringan. Menyebarkan sistem transportasi melalui platform cloud
mengeksplorasi sejumlah manfaat
yang mungkin tidak
dapat di- capai melalui
arsitektur tradisional sistem
transportasi seperti lingkungan penempatan yang fleksibel untuk strategi manajemen lalu lintas, dukungan
keputusan yang cerdas,
dll. Selain itu, arsitektur berbasis
cloud adalah pilihan yang
baik untuk mengelola dan menyimpan data
dalam volume besar
dari sumber heterogen di ITS.
Arsitektur
yang didasarkan pada komputasi awan tidak
hanya menyediakan kemampuan
pemrosesan data yang efisien
tetapi juga memastikan platform yang mapan
dan terbukti untuk
implementasi dan pemeliharaan karena virtualisasi dan teknik dasar lainnya untuk memisahkan perangkat
lunak dari karakteristik Mesin Fisik. Tetapi menggunakan
model ini untuk skenario dunia nyata dikaitkan
dengan beberapa tantangan
Figure 1: Generic Infrastructure for ITS
seperti kontrol
penerimaan, penskalaan sumber
daya secara otomatis, memanfaatkan sumber daya secara
optimal, dll. Lebih lanjut, selalu
sulit untuk membuat
keseimbangan antara Service
Level Agreements (SLA) dan pemanfaatan sumber daya.
Landasan Teori
2
Latar Belakang
Tujuan dari
bagian ini adalah untuk menyajikan konsep dan teknologi yang mendasari yang diselidiki dalam tesis ini. Diskusi dimulai
dengan ITS dan
aplikasi intinya. Kemudian
diskusi dilanjutkan dengan deskripsi model komunikasi asinkron dan teknologi cloud-enabled.
2.1
Intelligent Transport System
(ITS) Dan Penerapannya
Tidak
seperti rekayasa lalu lintas tradisional, ITS dianggap sebagai teknologi pintar
yang menginte- grasikan informasi, komunikasi, kontrol, teknologi komputer
dan teknologi modern
lainnya untuk menggu- nakan sistem manajemen transportasi transportasi yang real-time, fleksibel, andal, dan efisien. ITS dapat
menawarkan lima manfaat
utama dibandingkan infrastruktur lalu lintas tradisional - 1) mengurangi kemac- etan dan karenanya meningkatkan kinerja operasional, 2) meningkatkan keselamatan bagi para pelancong dan kendaraan, 3) meningkatkan mobilitas dan fleksibilitas bagi para pelancong, 4) memberikan manfaat lingkungan , dan 5) meningkatkan peluang
kerja, dan karenanya, mendorong pertumbuhan ekonomi.
Ada berbagai teknologi yang diperlukan untuk
berintegrasi bersama untuk merancang arsitektur beton untuk ITS. Menurut
[13], infrastruktur umum
untuk ITS mencakup tiga langkah utama:
pengumpulan data, pemrosesan data, dan pengiriman informasi. Setiap langkah melibatkan serangkaian teknologi, perangkat, platform, en- titas yang
beragam yang membutuhkan interaksi tanpa batas
untuk memberikan layanan
yang andal kepada
pengguna akhir.
"Platform
Integrasi" mendukung pengumpulan data statis dan real-time terkait
transportasi dari berbagai sumber, seperti
- database angkutan umum, database taksi,
dll. "Platform lapisan
transformasi" men- dukung
pemrosesan volume besar
data dan transformasi ke format
umum sehingga lapisan
berikutnya dapat
memanfaatkan data untuk
menyediakan layanan. Akhirnya, "platform layanan Berorientasi Kejadian" memu-
ngkinkan kupon yang longgar di antara Penyedia Layanan
dan Konsumen Layanan
yang memastikan model komunikasi yang
fleksibel.
Satu layanan
juga dapat bertindak
sebagai konsumen untuk layanan
lain. Misalnya, layanan
bernama StopsInArea, yang menyediakan daftar pemberhentian untuk area tertentu,
dapat menggunakan layanan yang bernama VehicleStops, yang
mencakup semua perhentian. Konsumen Layanan mungkin misalnya memilih untuk
carpool, membuat pengemudi mobil juga Produser Layanan - pengguna tersebut
dapat disebut prosumers (dilambangkan sebagai ’P’ pada gambar). Aplikasi ITS
bervariasi pada rentang yang luas, dan oleh
karena itu tidak
mungkin untuk menyajikan semua aplikasi yang
mungkin dalam domain ITS [13]. Namun, sebagian besar aplikasi ITS dapat diklasifikasikan ke dalam enam kategori
berbeda [32]
- Informasi Wisatawan,
Manajemen Lalu Lintas, Harga dan Pembayaran Elektronik, Sistem Keselamatan Kendaraan, Infrastruktur TIK, dan Pengangkutan dan Logistik, di mana setiap
kategori mencakup beberapa layanan ITS.
3
Landasan Teori
3.1
Model Komunikasi Asinkron
Sistem
Publikasikan / Berlangganan mendefinisikan model interaksi asinkron di mana
tiga entitas - Penerbit, Pelanggan, dan
Pemberitahuan digabungkan secara
longgar. Sistem Publikasikan / Berlangganan
adalah pemrosesan berkelanjutan dan infrastruktur komunikasi untuk pemrosesan
data yang efisien dan fleksibel serta Evolusi Arsitektur ITS menggunakan Cloud
Computing 7.
sebagai penyebaran data berbasis push dari sumber
data, yaitu penerbit,
ke tujuan data, yaitu
pelang- gan. Pemfilteran dan
distribusi data bersifat fleksibel karena mempertimbangkan preferensi pengguna yang dinyatakan sebagai langganan. Ini sering digunakan untuk pengiriman pesan
yang efisien secara
real-time karena memiliki kemampuan untuk memproses data dalam volume
besar karena bahasa
berlangganan yang fleksibel dan ekspresif serta
algoritma penyaringan yang
efisien. Beberapa sistem
Publikasi / Berlangganan telah disajikan oleh
industri dan akademisi [30]. Tetapi secara
umum, mereka dapat diklasifikasikan ke dalam
dua kategori: Berbasis subjek dan Berbasis konten. Dalam sistem berbasis
subjek, penerbit dan pelanggan dapat berinteraksi berdasarkan topik individual. Dalam sistem berbasis
konten, pelanggan dapat berlangganan berdasarkan konten
dari masing-masing topik.
Dalam tesis ini, sistem
Publikasi / Berlangganan berbasis konten, yang disebut MoPS [36], digunakan
karena dukungannya untuk
bahasa predikat ekspresif, dan prinsip-prinsip desain yang fleksibel. MoPS
menggunakan broker atau sekumpulan broker yang saling terhubung untuk menjalin
komunikasi antara penerbit dan pelanggan. Pialang bertindak sebagai
komponen inti dari
sistem yang bertanggung jawab untuk mencocokkan dan merutekan
notifikasi ke pelanggan yang tepat.
Jumlah broker dapat bervariasi sesuai dengan
beban kerja. Algoritma perutean MoPS dirancang dengan berfokus pada
mobilitas penerbit dan / atau pelanggan sehingga pelanggan bisa
mendapatkan semua notifikasi yang valid setelah
tersambung kembali ke broker baru
dengan langganan yang
sama. MoPS mengelola mobilitas penerbit dan pelanggan melalui
urutan perintah bernama connect, disconnect, connect, dan validitas publikasi atau berlangganan ditentukan oleh stempel waktu terkait.
MoPS menggunakan TCP sebagai protokol
komunikasi yang mendasarinya karena keandalannya untuk transfer
data. Jika ada lebih dari satu broker yang terhubung
dalam sistem, flooding digunakan untuk merutekan di antara broker
untuk memperbarui tentang
pelanggan aktif saat
ini dan minat mereka.
3.2
Teknologi
yang Diaktifkan Cloud
3.2.1
Virtualisasi
Virtualisasi adalah
teknologi terkemuka yang
telah digunakan sejak
1960-an [8]. Hal ini memungkinkan untuk menjalankan satu atau lebih
VM untuk ditempatkan bersama pada satu mesin fisik
di mana PM dikenal
sebagai tuan rumah dan VM disebut tamu. Aplikasi yang dihosting di VM terisolasi dari satu sama lain dan tidak
mengetahui virtualisasi perangkat
keras yang mendasarinya. Lapisan perangkat lunak khusus, yang disebut hypervisor atau Virtual
Machine Monitor (VMM) [3] bertanggung jawab untuk mengelola sumber daya fisik umum di antara para VM. Tidak
seperti emulator, hyper-visor menggunakan fitur virtualisasi diri dari CPU alih-alih meniru
mereka. Sebagian besar
CPU terbaru dari
Intel dan AMD telah memasukkan dukungan eksplisit untuk fitur "ekstensi
virtualisasi" yang menyediakan akselerasi perangkat keras dan karenanya,
VM menunjukkan peningkatan kinerja [18]. Secara virtualisasi umum dapat
diklasifikasikan ke dalam tiga
kategori umum [29]: virtualisasi penuh, para-virtualisasi dan virtualisasi
tingkat OS (lihat Gambar 2). Virtualisasi penuh memberikan kesempatan untuk menjalankan banyak VM di atas perangkat
keras yang tervirtualisasi dimana
para VM tidak
menyadari tentang virtualisasi perangkat keras.
Setiap tamu
VM akan beroperasi dengan cara yang
sama seperti beroperasi langsung melalui perangkat keras yang mendasarinya.
Contoh hypervisors yang menyediakan virtualisasi penuh adalah KVM [20], VMware
[42], dll. Paravirtualization adalah teknik virtualisasi di mana VM tamu dimodifikasi untuk menginformasikan
bahwa mereka menggunakan perangkat keras yang tervirtualisasi. Dalam kasus ini,
hypervisor bertindak sebagai lapisan virtualisasi. Guest VMs membuat panggilan
sistem ke hypervisor untuk berbagi
sumber daya perangkat keras yang
sama. Contoh tipikal dari hypervisor yang mendukung
paravirtualization adalah
Xen-PV [40] [3]. Virtualisasi tingkat
OS berfungsi pada lapisan OS dengan
membiarkan satu
instance dari sistem
operasi menjadi beberapa partisi yang terisolasi. Kernel OS berjalan
Figure 2: Virtualized Infrastructure with Full virtualization, Paravirtualization
and OS-level virtualization
pada host fisik dan menyediakan fungsionalitas OS
untuk setiap partisi, di mana setiap partisi bertindak sebagai server nyata. Penjara FreeBSD [25] adalah contoh
teknik virtualisasi tingkat OS.
3.2.2 Live Migration
VM adalah
salah satu fitur utama yang ditawarkan oleh platform cloud. VM dapat
dimigrasikan dari satu mesin fisik ke mesin
lain dengan mentransfer kondisinya seperti
- CPU, perangkat, memori terkait, dan penyimpanan. Pada
dasarnya, ada dua jenis migrasi
VM: Migrasi Hot (Live) dan Migrasi Dingin
[6]. Dalam migrasi
panas atau langsung, VM tidak kehilangan kondisinya, oleh karena
itu, tidak diperlukan untuk mematikan dan memulai
ulang VM untuk
melanjutkan operasinya di host tujuan.
Sebaliknya, migrasi dingin menangguhkan sistem
operasi dan aplikasi pada VM dan
mentransfer status VM, memori dan
penyimpanan yang terkait ke host tujuan dan melanjutkan operasi
VM di host tujuan. Jumlah waktu selama VM berhenti mengeksekusi baik pada host
sumber dan tujuan
disebut downtime VM. Saat ini,
migrasi langsung didukung oleh sebagian besar hypervisor umum seperti - Xen, KVM dan VMware,
tetapi down-time dapat bervariasi
dari beberapa ratus milidetik hingga
beberapa detik tergantung pada hypervisor dan beban kerja VM.
Tiga kategori berbeda
dari strategi migrasi
langsung dibahas dalam [39]. Garis besar untuk algoritma
migrasi VM langsung disajikan pada Gambar 3. Dalam pendekatan Precopy [7], VM
mentransfer status CPU, penyimpanan, dan
memori mereka sebelum
memulai eksekusi mereka
di node tujuan.
Ini adalah yang Pendekatan umumdigunakan oleh
sebagian besar hypervisor umum seperti KVM secara default. Secara umum, pendekatan Precopy terdiri dari tiga langkah
[9]. Pada fase Start-up, memori
VM ditransfer sumber bentuk ke node
tujuan melalui beberapa iterasi. Tetapi
beberapa halaman memori
dapat berubah pada
node sumber setelah mentransfer ke node tujuan yang memerlukan transfer
ulang untuk memastikan konsistensi dari VM. Iterasi
dapat berjalan untuk
jumlah kali yang tak terbatas, jika laju perubahan memori lebih tinggi dari laju transfer memori. Oleh
karena itu, beberapa kondisi diterapkan dalam fase Pengakhiran Prekopi untuk membatasi iterasi selama
waktu yang ditentukan. Kondisi berhenti ini terutama tergantung pada implementasi hypervisors tetapi dapat
diklasifikasikan ke dalam tiga
kategori utama. Pertama, pendekatannya dapat membatasi jumlah
iterasi yang tertinggi. Kedua, mereka dapat
membatasi jumlah memori
yang ditransfer tertinggi
atau akhirnya, mereka dapat membatasi
jumlah halaman yang diubah dalam iterasi
Figure 3: Live Migration Strategies
a)Precopy b)Postcopy c)Hybrid
terakhir. Pada fase terakhir,
yang disebut Stop-and-Copy, VM menghentikan eksekusi mereka di node sumber dan mentransfer CPU dan status
perangkat dan sisa halaman memori
ke node tujuan dan memulai
kembali operasi mereka. Sebaliknya, dalam pendekatan postcopy [22], pada awalnya VM mentransfer status CPU mereka ke tujuan untuk memulai operasi mereka,
dan kemudian halaman memori ditransfer dari sumber ke tujuan berdasarkan permintaan. Akhirnya, strategi lain yang
disebut hy- brid approach [39], menggabungkan pendekatan prekopi dan
postkopi. Dalam pendekatan hibrida, pada awalnya, halaman memori yang paling
sering diakses ditransfer dari sumber ke tujuan
dan kemudian migrasi
mengikuti langkah-langkah dari pendekatan postcopy
murni.
3.2.3
Elastisitas
Elastisitas
dalam arsitektur berbasis cloud dapat didefinisikan sebagai cara
mengalokasikan, mendelokasi, dan merealokasi sumber
daya fisik di antara
para VM secara
otomatis berdasarkan permintaan. Untuk sifat dinamis
dari beban kerja aplikasi cloud, platform cloud harus dapat mengalokasikan dan
memindahkan sumber daya dengan variasi
beban kerja, dan memitigasi puncak
sedekat mungkin dalam
lingkungan yang tidak dapat
diprediksi dengan perubahan cepat [21]. Kebijakan elastisitas dapat
didefinisikan sebagai pendekatan bagaimana dan kapan sumber
daya ditambahkan ke suatu aplikasi, tergantung pada bebannya. Ada dua pendekatan untuk mencapai elastisitas [37] di lingkungan
cloud. Dalam elastisitas horizontal, penskalaan dicapai dengan menambahkan dan
/ atau memindahkan jumlah VM yang dialokasikan untuk suatu aplikasi.
Sebaliknya, dalam skalabilitas vertikal, penskalaan dicapai dengan
mengalokasikan dan / atau mengalokasikan sumber
daya ke VM yang tersedia untuk suatu aplikasi. Ada dua pendekatan alternatif utama [16] untuk menerapkan
kebijakan elastisitas untuk aplikasi berbasis cloud. Pendekatan pertama adalah menggunakan pendekatan teori kontrol
di mana keputusan untuk alokasi
sumber daya didasarkan pada kinerja
aplikasi saat ini dan proyeksi berdasarkan QoS (seperti - waktu respon)
dengan sumber daya yang diberikan. Pendekatan kedua disebut
heuristik, pendekatan berbasis
aturan, di mana
penentuan skala
didasarkan pada spesifikasi seperangkat aturan heuristik. Misalnya, menetapkan ambang
batas atas atau bawah untuk VM berdasarkan pemanfaatan CPU-nya.
3.2.4 Infrastruktur OpenStack
OpenStack [35] adalah kumpulan
perangkat lunak sumber
terbuka untuk membangun dan mengelola
platform cloud pribadi, publik, dan hybrid. OpenStack termasuk dalam kategori
IaaS dan memberikan fleksibilitas kepada pengguna akhir untuk mengelola
infrastruktur secara efisien. OpenStack terdiri dari berbagai komponen dan sifatnya
yang terbuka memberikan peluang untuk memasukkan komponen tamba- han tergantung pada persyaratan. Namun,
secara umum komunitas
OpenStack telah mempertimbangkan sembilan komponen berbeda
sebagai komponen inti.
menyediakan layanan
komputasi dan dianggap
sebagai mesin komputasi inti di belakang
OpenStack. Ini bertanggung jawab untuk membuat dan mengelola sejumlah
besar VM dan contoh lain untuk menangani
tugas komputasi. Nova terdiri dari
enam sub komponen yang berbeda untuk memastikan berbagai jenis layanan terkait.
Nova API menyediakan antarmuka bagi
pengguna akhir atau administrator sistem untuk
melakukan tugas terkait manajemen. Nova Compute
bertanggung jawab untuk
mempertahankan siklus hidup VM seperti
- membuat, menghapus, atau memindahkan VM dalam platform
cloud. Nova Conductor
mengimplementasikan layer baru yang
memungkinkan Nova Compute untuk
membongkar operasi basis datanya. Nova Scheduler menangani koordinasi antara permintaan sumber daya dan alokasi
sumber daya. Nova
Network menyediakan konektivitas jaringan untuk VM dalam Open-Stack.
Protokol Antrian Pesan Aktif (AMQP) digunakan untuk komunikasi antara
berbagai layanan melalui
penggunaan perpesanan yang luas dan MySQL
digunakan untuk menyimpan semua metadata.
komponen jaringan
OpenStack yang merupakan plugable, scalable dan
sistem yang digerakkan oleh API untuk
mengelola layanan terkait
jaringan seperti penerusan L3, NAT, VPN, firewall
tepi, dll. untuk
VM OpenStack. Tidak seperti Nova Network,
ia mengelola jaringan
yang ditentukan oleh perangkat lunak dan
menawarkan kesempatan untuk mengonfigurasi topologi
jaringan virtual canggih
seperti pemisahan lalu lintas jaringan berbasis penyewa. Sebagai
bagian dari pembuatan VM di dalam OpenStack, Nova Compute berinteraksi dengan Neutron
melalui panggilan API untuk mengaktifkan
cision tentang
alokasi sumber daya dan
menempatkan VM pada
Compute Node yang
sesuai. Untuk broker
AMQP, baik RabbitMQ [41] atau Qpid [1] digunakan untuk mengelola komunikasi antara Penjadwal Nova dan Komputasi Nova. Akhirnya,
Nova Compute meluncurkan VM tempat Glance
mendukung dengan gambar VM. Kemudian, baik Nova Network atau Neutron digunakan untuk mengatur konektivitas jaringan untuk VM. Semua metadata tentang VM disimpan dalam
database MySQL untuk mengelola konsistensi platform cloud. Keystone
bertindak sebagai entitas
pusat untuk memeriksa kredensial untuk semua
layanan. Mengenai migrasi VM, OpenStack mendukung berbagai cara [14]
yang dapat diklasifikasikan ke dalam
tiga kategori - migrasi dengan
penyimpanan bersama dikenal
sebagai Mikroprasi Langsung, migrasi tanpa
Figure 4: Overview of VM Creation
within OpenStack Cloud Platform
penyimpanan bersama yang
dikenal sebagai Block Live Migration, dan migrasi dengan volume terlampir (penyimpanan blok)
yang dikenal sebagai
Migrasi Langsung yang
Didukung Volume.
Di OpenStack, migrasi langsung terutama tergantung pada hypervisor-nya. Sebagai
contoh, KVM adalah
hypervisor ephemeral un- tuk
OpenStack yang mendukung QEMU [4] untuk
memanfaatkan virtualisasi perangkat keras pada arsitektur yang berbeda. Libvirt
[5] menyediakan API untuk mengelola KVM dan QEMU.
Teknik migrasi langsung lebih cepat daripada
memblokir migrasi langsung
karena untuk kasus sebelumnya hypervisor hanya men- transfer status VM daripada seluruh
disk virtual. Dalam migrasi langsung yang didukung volume,
VM menggunakan penyimpanan blok daripada disk biasa dan migrasi dimungkinkan tanpa memindahkan dan menyalin volume, hanya dengan berjabat
tangan antara Nova dan Cinder untuk
melampirkan / melepaskan volume dari satu host ke host lain.
Langkah-langkah
terperinci untukOpenStackblocklivemigrasi disajikan pada Gambar 5. Pada awal- nya,
instruksi untuk migrasi langsung diberikan melalui Nova Compute API. Kemudian, Penjadwal Nova menjadwalkan tugas dan meneruskan ini
ke Nova
Conductor. Nova Conductor
memeriksa ketersediaan penyimpanan dan kompatibilitas node sumber dan tujuan
untuk migrasi. Nova Compute membuat
disk kosong dan direktori instance dan mentransfer file yang hilang
melalui Sekilas ke node tujuan. Akhirnya, Nova Compute memulai
migrasi aktual pada node sumber
dan sebuah file XML file yang didekreasikan ke mode penaksiran untuk menyimpan metadata
tentang VM.
4
Pembahasan
Tantangan utama yang
dibahas dalam tesis
ini adalah merancang dan mengimplementasikan arsitektur informasi terdistribusi dan mekanisme pertukaran untuk ITS. Untuk konteks tesis kami fokus pada sistem yang fleksibel, skalabel, elastis,
dan mendukung kopling
longgar antara berbagai
departemen transportasi dan komunikasi berbasis push asinkron
antara penyedia layanan
dan konsumen. Selain
itu, selama desain
ar- sitektur, kami
berkonsentrasi pada dukungan
yang fleksibel dan manajemen sumber
daya yang tersedia yang optimal sambil mempertimbangkan persyaratan QoS. Kami memetakan ruang penelitian dengan
mengiden-
tifikasi serangkaian tantangan utama untuk
merancang arsitektur terdistribusi yang dapat diandalkan untuk ITS. Selanjutnya, kami menyelidiki berbagai
teknik optimisasi berbasis
jaringan untuk meningkatkan kin- erja migrasi VM langsung sambil
berkonsentrasi pada pemanfaatan bandwidth jaringan yang tersedia dalam platform cloud yang penting
untuk arsitektur ITS tetapi umumnya
berlaku untuk infrastruktur berbasis cloud. Tujuan
kami adalah untuk
memanfaatkan jalur jaringan
yang dapat digunakan yang dapat digunakan untuk mentransfer lalu lintas migrasi volume
tinggi dengan cepat tanpa mempengaruhi lalu lintas intra lainnya
dalam infrastruktur cloud.
4.1
Merancang arsitektur generik
untuk ITS yang didistribusikan dalam konteks sistem transportasi umum
referensi arsitektur yang didistribusikan untuk ITS diusulkan. Makalah mengidentifikasi teknologi ter- baru seperti
- SOA, Cloud dan Grid Computing, dan menyajikan solusi
yang menonjol berdasarkan teknologi ini, yang dapat
diterapkan untuk membangun infrastruktur yang dapat
diandalkan untuk ITS.
Ini juga memba- has tantangan relatif dari teknologi ini yang
membutuhkan perhatian khusus sebelum menyebarkan arsitektur di dunia nyata. Arsitektur yang diusulkan berfokus pada satu set aplikasi inti
dan inovatif ITS selama desain. Tujuan utama arsitektur ini adalah untuk menawarkan layanan
yang mencakup data dari berbagai
otoritas transportasi dan untuk
memberikan layanan tepat
waktu kepada sejumlah
besar konsumen seluler. Misalnya, seorang pelancong memulai perjalanan dari titik A ke C melalui
titik B di mana perjalanan lengkap men- cakup
layanan dari berbagai
otoritas transportasi. Arsitektur harus melanjutkan pengiriman layanan kepada para pelancong tanpa gangguan selama
perjalanan dari A ke C dalam
arsitektur yang diusulkan. Ini dicapai dengan memisahkan lapisan pengumpulan data yang mengumpulkan data dari berbagai
agen transportasi dari lapisan transformasi yang mengubah data
yang dikumpulkan menjadi
format umum.
4.2
Cara memanfaatkan model
arsitektur berbasis cloud untuk ITS
Memanfaatkan
konsep Cloud Computing di bidang ITS dapat memberikan sejumlah manfaat diband-
ingkan arsitektur tradisional mengenai kinerja operasional dan biaya terkait seperti
alokasi dinamis / deal-
lokasi sumber daya komputasi berdasarkan beban kerja.
Tetapi sebelum memindahkan infrastruktur ITS ke platform cloud, merupakan langkah
penting untuk menyelidiki tingkat degradasi kinerja
yang dipaksakan oleh
virtualisasi akibat komputasi awan. Masalah
ini dibahas dalam Makalah II. Ini menyoroti
perbedaan dalam kinerja menggunakan berbagai tingkat virtualisasi. Hasilnya membantu otoritas
transportasi untuk memutuskan pengaturan dasar mereka untuk
infrastruktur ITS. aplikasi inti latensi rendah
dari domain ITS. Ini
berurusan dengan dua tantangan utama
- manajemen mobilitas dan volume besar
data yang dipertukarkan di kota-kota pintar besar.
Gagasan yang diusulkan untuk menerapkan aplikasi ITS latensi rendah di atas
platform cloud dimotivasi oleh keunggulan - kinerja dan ketersediaan tinggi
yang ditawarkan oleh komputasi
awan; dan komunikasi kopling
longgar dan asinkron yang ditawarkan oleh
sistem publish / subscribe. Ini juga
mempertimbangkan persyaratan latensi rendah untuk layanan ITS. Lebih lanjut,
Makalah III memberikan wawasan tentang teknik berbagi sumber
daya platform cloud dan skalabilitas sistem
keseluruhan di bawah skenario
beban kerja kehidupan nyata.
4.3
Cara memastikan aplikasi yang dirancang untuk ITS melalui
arsitektur berbasis cloud
Untuk
memastikan pengelolaan sumber daya yang
optimal untuk otoritas transportasi dalam infrastruktur berbasis
cloud, penempatan awal VM ke dalam PM tidak cukup.
Teknik penggantian VM dari PM saat ini ke PM lain harus
efisien. Lebih khusus
lagi, memigrasi VM dari satu
PM ke PM lain
sambil melayani sejumlah
klien ITS yang terhubung adalah kriteria penting
untuk setiap infrastruktur ITS berbasis cloud. Kertas IV menggunakan aplikasi
ITS yang diusulkan dalam Kertas III dan membahas
berbagai pendekatan inovatif untuk memberikan QoS untuk aplikasi
ITS latensi rendah
ini sambil mempertimbangkan masalah pemanfaatan sumber daya yang optimal dan optimal untuk otoritas transportasi. PaP per IV menggunakan
skenario penyebaran yang
paling umum untuk
platform cloud di mana PM terhubung melalui
beberapa jalur jaringan untuk
memisahkan manajemen dan lalu lintas data. Makalah IV memperkenalkan teknik
yang berbeda untuk mencapai
trade-off operasional antara
biaya dan QoS yang dapat bermanfaat bagi otoritas
transportasi dan pengguna
akhir. Ini menunjukkan bagaimana infrastruktur yang ada dapat
dimanfaatkan secara efisien untuk
memberikan waktu layanan
terbaik untuk aplikasi
ITS tanpa berinvestasi pada tingkat
perangkat keras. Lebih lanjut, evaluasi ekstensif untuk berbagai skenario beban
kerja disajikan untuk mendukung gagasan yang
diusulkan tentang penyebaran lalu lintas migrasi
di banyak jalur dan
menggunakan skema
manajemen antrian terbaru.
5
Kesimpulan
Tujuan penelitian utama dari tesis
ini adalah untuk mengembangkan model
arsitektur yang dapat digu-
nakan secara efisien untuk ITS, dan untuk menguji bagian-bagian dari arsitektur ini dalam skenario
skala besar. Hasil awal pada infrastruktur ITS berbasis cloud
menjanjikan dalam hal menampung beragam
aplikasi ITS, menunjukkan bahwa
model arsitektur yang
digerakkan utilitas seperti
itu praktis untuk
skenario dunia nyata,
dan menawarkan manfaat
yang signifikan untuk
merancang skala, mudah
digunakan, dan biaya yang terukur. arsitektur yang efektif
untuk ITS. Berdasarkan pekerjaan yang disajikan
dalam tesis ini, beberapa
tantangan penelitian diidentifikasi untuk investigasi di masa depan.
Meskipun proposal untuk
infrastruktur ITS yang disajikan dalam tesis ini meningkatkan
skalabilitas dan menyediakan mekanisme untuk
penem- patan yang mudah,
ada ruang untuk
meningkatkan efisiensinya dalam
hal memberikan jaminan
kinerja untuk aplikasi di atas. Saat
ini, beberapa mekanisme pada lapisan jaringan
dan transportasi telah
diusulkan untuk meningkatkan kinerja aplikasi ITS latensi rendah
selama layanan mobilitas.
References
Bajpai, K.K. Dhara
R. and V. Krishnaswamy, “A distributed pri- ority queue
with item locality. In Parallel and Distributed
Processing with Applications,” International Symposium on, 2008, 97 (3), 215–223.
Dargie, W., “Estimation of the cost of vm migration,” In Computer
Com- munication and Networks
(ICCCN), 2014, 53 (6), 431–454.
Felber, Rachid Guerraoui Patrick
Th. Eugster Pascal
A. and Anne-Marie Kermarrec., “The many faces of publish/subscribe,”
ACM
Comput. Surv, 2003, 35 (2), 114–131.
Sievers, G. Birkenheuer O. Niehorster M. Bolte M. and A. Brinkmann, “Non-intrusive virtualization management using libvirt,”
Auto- mation Test in Europe Conference
Exhibition, 2010, 43 (2), 574–579.
Tusa, M. Villari
A. Celesti F. and A. Puliafito, “Improving virtual
ma- chine migration in federated cloud
environments.,” Second International Conference,
2010, 8 (3), 61–67.