TUGAS VCLASS STATISTIK 2 M13
Nama : Nurul Shafira
Kelas : 2EB07
NPM : 25216634
TUGAS VCLASS STATISTIK 2 M13
1. Apakah
sebab-sebab Autokorelasi
2. Faktor-faktor
yang dapat menyebabkan timbulnya masalah Autokolerasi!
3. Apakah
yang dimaksud pengujian Autokolerasi?
4. Dalam
uji Durbin-Watson (DW-Test). Terdapat beberapa asumsi penting yang harus
dipatuhi, Apakah itu?
5. Coba
jelaskan apa yang dimaksud Asumsi Klasik!
6. Sebutkan
apa saja asumsi-asumsi yang ditetapkan!
7. Coba
jelaskan mengapa tidak semua asumsi perlu lakukan pengujian!
8. Jelaskan
apa yang dimaksud dengan Autokolerasi!
9. Jelaskan
kenapa Autokolerasi timbul!
10. Bagaimana cara mendeteksi
masalah Autokolerasi
11. Apa konsekuensi dari
adanya masalah Autokolerasi dalam Model?
12. Jelaskan apa yang
dimaksud dengan Heteroskidastisitas!
13. Jelaskan kenapa
Heteroskedastisitastimbul!
14. Bagaimana cara mendeteksi
masalah Heteroskedastisitas?
15. Apa konsekuensi dari
adanya masalah Heteroskedastisitas dalam model?
16. Jelaskan apa yang
dimaksud dengan Multikolinfaritas!
17. Jelaskan kenapa
Multikolinfaritas timbul!
18. Bagaimana cara mendeteksi
masalah Multikolinfaritas?
19. Apa konsekuensi dari
adanya masalah Multikolinearitas dalam model?
20. Jelaskan apa yang dimaksud
dengan Normalitas!
21. Jelaskan kenapa
Normalitas timbul!
22. Bagaimana cara mendeteksi
masalah Normalitas?
23. Apa konsekuensi dari
adanya masalah Normalitas dalam Model?
24. Bagaimana cara menangani
jika data ternyatab tidak Normal?
Jawaban
1. Penyebab
autokorelasi adalah
sebagai berikut:
• Inersia
Salah satu ciri menonjol dari sebagian
deretan waktu ekonomi adalah inersia atau kelembaman. Seperti telah dikenal
dengan baik, deretan waktu seperti GNP. Indeks Harga, produksi, kesempatan
kerja dan pengangguran menunjukkan pola siklus. Dalam kasus-kasus tersebut
observasi yang berurutan nampaknya saling bergantungan.
• Bias
spesisifikasi mengeluarkan variabel yang relevan dari model
• Bias
spesifikasi karena bentuk fungsional yang tidak benar
• Fenomena
Cobweb
Penawaran banyak komoditi pertanian
mencerminkan apa yang disebut “Fenomena Cobweb” di mana penawaran bereaksi
terhadap harga dengan keterlambatannya satu periode waktu karena keputusan
penawaran memerlukan waktu untuk penawarannya (periode persiapan) jadi pada
awal musim tanam tahun ini pertanian dipengaruhi oleh harga yang terjadi tahun
lalu.
• Manipulasi
data
Dalam analisis empiris, data kasar
seringkali “dimanipulasikan”. Sebagai contoh, dalam regresi daretan waktu yang
melibatkan data kuartalan, data seperti itu biasanya diperoleh dari data
bulanan dengan hanya marata-ratakan 3 observasi 3 bulanan. Pemerataan-rataan
ini meratakan fluktuasi dalam data bulanan dan dengan sendirinya mengakibatkan
pola sistematis dalam error sehingga menyababkan autokorelasi.
2. Terdapat
banyak faktor-faktor yang dapat menyebabkan timbulnya masalah
autokorelasi, beberap faktor tersebut antara lain:
• Kesalahan
dalam pembentukan model, artinya, model yang digunakan untuk menganalisis
regresi tidak didukung oleh teori-teori yang relevan dan mendukung.
• Tidak
memasukkan variabel yang penting. Variabel penting yang dimaksudkan di sini
adalah variabel yang diperkirakan signifikan mempengaruhi variabel Y.
• Manipulasi
data. Misalnya dalam penelitian kita ingin menggunakan data bulanan, namun data
tersebut tidak tersedia. Kemudian kita mencoba menggunakan triwulanan yang
tersedia, untuk dijadikan data bulanan melalui cara interpolasi atau
ekstrapolasi.
• Menggunakan
data yang tidak empiris. Jika data semacam ini digunakan, terkesan bahwa data
tersebut tidak didukung oleh realita.
3. Uji
Autokorelasi adalah sebuah
analisis statistik yang dilakukan untuk mengetahui adakah korelasi variabel
yang ada di dalam model prediksi dengan perubahan waktu.
4. Dalam
DW test ini terdapat beberapa asumsi penting yang harus dipatuhi, yaitu:
• Terdapat
intercept dalam model regresi.
• Variabel
penjelasnya tidak random ( nonstochastics ).
• Tidak
ada unsur lag dari variabel dependen di dalam model.
• Tidak
ada data yang hilang.
• υ
= ρυ + ε t t − 1 t
5. Uji
asumsi klasik adalah persyaratan statistik yang harus
dipenuhi pada analisis regresi linear berganda yang berbasis ordinary least
square (OLS). Jadi analisis regresi yang tidak berdasarkan OLS tidak memerlukan
persyaratan asumsi klasik, misalnya regresi logistik atau regresi ordinal.
Demikian juga tidak semua uji asumsi klasik harus dilakukan pada analisis
regresi linear, misalnya uji multikolinearitas tidak dilakukan pada analisis
regresi linear sederhana dan uji autokorelasi tidak perlu diterapkan pada data
cross sectional.
6. Asumsi
1 : linear regresion Model. Model regresi merupakan hubungan linear
dalamparameter.
Asumsi 2 : Nilai X adalah tetap dalam
sampling yang diulang – ulang
Asumsi 3 : Variabel penggangu e memiliki
rata –rata nol
Asumsi 4 : Homoskedastisitas atau
variabel penggangu e memiliki variance yang sama sepanjang observasi dari
berbagai nilai X.
Asumsi 5 : Tidak ada autokorelasi antara
variabel e pada setiap nilai Xi dan ji
Asumsi 6 : Variabel X dan disturbance e
tidak berkorelasi.
Asumsi 7 : Jumlah observasi / besar sample
(n) harus lebih besar dari jumlah parameter yang diestimasi.
Asumsi 8 : Variabel X harus memiliki
variabilitas.
Asumsi 9 : Model regresi secara benar telah
terspesifikasi.
Asumsi 10 : Tidak ada multikolinearitas
antara variabel penjelas
7. Karena
tidak semua data dapat diperlakukan dengan regresi, Jika data yang diregresi
tidak memenuhi asumsi-asumsi yang telah disebutkan (asumsi klasik), maka
regresi yang diterapkan akan menghasilkan estimasi yang bias.
8. Uji
Autokorelasi adalah sebuah analisis statistik yang dilakukan untuk
mengetahui adakah korelasi variabel yang ada di dalam model prediksi dengan
perubahan waktu. Oleh karena itu, apabila asumsi autokorelasi terjadi pada
sebuah model prediksi, maka nilai disturbance tidak lagi berpasangan secara
bebas, melainkan berpasangan secara autokorelasi.
9. Masalah
autokorelasi sering timbul pada data runtut waktu (time series).
Penyebab utama autokorelasi adalah kesalahan spesifikasi, misalnya
terabaikannya suatu variabel penting atau bentuk fungsi yang tidak tepat.
Berikut beberapa penyebab munculnya autokorelasi dalam analisis regresi:
• Adanya
kelembaman (inertia), yaitu data observasi pada periode sebelumnya dan periode
sekarang, kemungkinan besar akan mengandung saling ketergantungan
(independence).
• Bisa
spesifikasi model kasus yang tidak dimasukkan. Hal ini disebabkan oleh tidak
dimasukkannya variabel yang menurut teori sangat penting peranannya dalam
menjelaskan variabel terikat (tak bebas). Bila hal ini terjadi, unsur
pengganggu (error term) akan merefleksikan suatu pola yang sistematis antara
sesama unsur pengganggu sehingga terjadi situasi otokorelasi diantara unsur
pengganggu.
• Adanya
fenomena laba-laba (cobweb phenomenon), yaitu data yang diperoleh saat ini (X₁) dipengaruhi oleh data sebelumnya (X₀) sehingga data setelah saat ini/data berikutnya(X₂) memiliki kecenderungan dipengaruhi oleh data
pendahulunya (X₀) sehingga data X₂ memiliki potensi lebih rendah dari data X₁. Akibatnya error term tidak lagi bersifat acak (random),
tetapi mengikuti pola sarang laba-laba.
• Manipulasi
data (manipulation of data). Dalam analisis empiris terutama data time series
sering kali terjadi manipulasi data, hal ini terjadi data yang diinginkan tidak
tersedia. Adanya interpolasi atau manipulasi data jelas akan menimbulkan suatu
pola fluktuasi yang tersembunyi yng mengakibatkan munculnya pola sistematis
dalam unsur penggangu dan akhirnya akan menimbulkan masalah autokorelasi.
• Adanya
kelembaman waktu (time lags). Dalam regresi data time series, pengaruh
psikologis, teknis dan kelembagaan. Jika unsur lag diabaikan dari suatu mdel
yang dibentuk, maka error term yang dihasilkan akan mencerminkan pola
sistematis sebagai akibat pengaruh variabel terikat pada periode sebelumnya
atau periode sekarang.
10. Cara
mendeteksi autokeralasi dengan metode grafik, uji Durbin
Watson, uji Run, dan uji Breusch-Godfrey (BG)/Langrange Multiplier (LM).
11. Konsekuensinya
antara lain:
• Estimator
yang dihasilkan masih unbiased, konsisten, dan asymptotical normally
distributed. Tetapi tidak lagi efisien->varians tidak minimum (tidak BLUE).
• Estimasi
standard error dan varian koefisien regresi yang didapat akan ‘underestimate’.
• Autokorelasi
yang kuat dapat pula menyebabkan dua variabel yang tidak berhubungan menjadi
berhubungan. Biasa disebut spourious regression. Hal ini terlihat dari R2.
12. Uji
Heteroskedastisitas adalah uji yang menilai apakah ada
ketidaksamaan varian dari residual untuk semua pengamatan pada model regresi
linear. Uji ini merupakan salah satu dari uji asumsi klasik yang harus
dilakukan pada regresi linear. Apabila asumsi heteroskedastisitas tidak terpenuhi,
maka model regresi dinyatakan tidak valid sebagai alat peramalan.
13. Heteroskedastisitas
timbul apabila
kesalahan atau residual dari model yang diamati tidak memiliki varians yang
konstan dari satu observasi ke observasi lainnya (Kuncoro, 2001: 112).Padahal
rumus regresi diperoleh dengan asumsi bahwa variabel pengganggu (error) atau e,
diasumsikan memiliki variabel yang konstan (rentangan e kurang lebih sama).
Apabila terjadi varian e tidak konstan, maka kondisi tersebut dikatakan tidak
homoskedastik atau mengalamiheteroskedastisitas (Setiaji, 2004: 17).
14. Untuk
mendeteksi ada tidaknya heteroskedastisitas, dapat dilakukan
dengan berbagai cara seperti uji grafik, uji Park, Uji Glejser, uji Spearman’s
Rank Correlation, dan uji Whyte menggunakan Lagrange Multiplier (Setiaji, 2004:
18)21.Pengujian heteroskedastisitas menggunakan uji grafik, dapat dilakukan
dengan membandingkan sebaran antara nilai prediksi variabel terikat dengan
residualnya, yang output pendeteksiannya akan tertera berupa sebaran data padascatter
plot.Pengujian heteroskedastisitas menggunakan uji Arch, dilakukan dengan cara
melakukan regresi atas residual, dengan model yang dapat dituliskan e2 = a +
By2 + u. Dari hasil regresi tersebut dihitung nilai R2. Nilai R2 tadi dikalikan
dengan jumlah sampel (R2 x N). Hasil perkalian ini kemudian dibandingkan dengan
nilai chi-square (x2) pada derajat kesalahan tertentu.
15. Analisis
regresi linier yang berupa variance residual yang sama, menunjukkan bahwa
standar error (Sb) masing-masing observasi tidak mengalami perubahan, sehingga
Sb nya tidak
bias., Jika
asumsi ini tidak terpenuhi, sehinggavariance residualnya berubah-ubah sesuai
perubahan observasi, maka akan mengakibatkan nilai Sb yang diperoleh dari hasil
regresi akan menjadi bias.Karena nilai t dihasilkan dari hasil bagi antara b
dengan Sb. Jika nilai Sb mengecil, maka nilai t cenderung membesar.Nilai t yang
seharusnya signifikan, bisa jadi ditunjukkan menjadi tidak signifikan.
Ketidakmenentuan dari Sb ini dapat menjadikan hasil riset yang mengacaukan.
16. Multikolinieritas
adalah suatu
keadaan dimana terjadi korelasi linear yang ”perfect” atau eksak di antara
variabel penjelas yang dimasukkan ke dalam model. Tingkat kekuatan hubungan
antar variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan
sempurna. Tingkat kolinear dikatakan lemah apabila masing-masing variabel
penjelas hanya mempunyai sedikit sifat-sifat yang sama.
17. a. Kesalahan
teoritis dalam pembentukan model fungsi regresi yang dipergunakan/memasukkan
variabel bebas yang hampir sama, bahkan sama.
b. Terlampau
kecilnya jumlah pengamatan yang akan dianalisis dengan model regresi
18. Ada
beberapa metode deteksi multikolinearitas, antara lain:
a. Kolinearitas
seringkali diduga jika R2 cukup tinggi (antara 0,7-1) dan jika koefisien
korelasi sederhana (korelasi derajat nol) juga tinggi, tetapi tak satu pun/
sedikit sekali koefisien regresi parsial yang signifikan secara individu. Di
pihak lain, uji F menolak H0 yang mengatakan bahwa secara stimulan seluruh
koefisien regresi parsialnya adalah nol.
b. Meskipun
korelasi derajat nol yang tinggi mungkin mengusulkan kolinearitas, tidak perlu
bahwa mereka tinggi berarti mempunyai kolinearitas dalam kasus spesifik. Untuk
meletakkan persoalan agar secara teknik, korelasi derajat nol yang tinggi
merupakan kondisi yang cukup tapi tidak perlau adanya kolinearitas karena hal
ini dapat terjadi meskipun melalui korelasi derajat nol atau sederhana relaif
rendah.
c. Untuk
mengetahui ada tidaknya kolinearitas ganda dalam model regresi linear berganda,
tidak hanya melihat koefisien korelasi sederhana, tapi juga koefisien korelasi
parsial.
d. Karena
multikolinearitas timbul karena satu atau lebih variabel yang menjelaskan
merupakan kombinasi linear yang pasti atau mendekati pasti dari variabel yang
menjelaskan lainnya, satu cara untuk mengetahui variabel X yang mana
berhubungan dengan variabel X lainnya adalah dengan meregresi tiap Xi atas sisa
variabel X dan menghitung R2 yang cocok, yang bisa disebut.
19. a. Walaupun bersifat BLUE, estimator OLS yang
didapatkan memiliki varians dan kovarians yang besar, sehingga estimasi yang
tepat sulit dilakukan.
b. Rentang
kepercayaan (confidence interval) menjadi besar.
c. Uji
t untuk satu atau beberapa koefisien regresi cenderung untuk tidak signifikan.
d. Walaupun
banyak koefisien yang tidak signifikan (dalam uji-t), akan tetapi nilai
koefisien determinasi (R2) biasanya sangat tinggi.
e. Estimator
OLS dan standart errornya menjadi sangat sensitif dengan adanya perubahan kecil
pada data.
20. Uji
Normalitas adalah sebuah uji yang dilakukan dengan tujuan untuk
menilai sebaran data pada sebuah kelompok data atau variabel, apakah sebaran
data tersebut berdistribusi normal ataukah tidak. Uji Normalitas berguna untuk
menentukan data yang telah dikumpulkan berdistribusi normal atau diambil dari
populasi normal.
21. Sebenarnya
istilah “normalitas” dalam statistik itu biasa digunakan untuk menjelaskan
jenis distribusi dari sebuah data. Suatu data memiliki kecenderungan terhadap
suatu jenis distribusi, seperti : distribusi binomial, hypergeometri, poisson,
normal, weilbul, dll. Jenis distribusi data dapat ditentukan dari karakteristik
data itu sendiri, dapat pula dilakukan pengujian apakah data tersebut memiliki
kecenderungan terhadap suatu distribusi (salah satunya distribusi normal).
22. Untuk
masalah menguji sebuah data terdistribusi normal atau dapat
menggunakan beberapa cara (uji). Ada Uji Kolmogorov Smirnov (KS test),
Jaque Berra Test, Anderson Darling Test, dll. Uji normalitas (sebutan
untuk menguji apakah sebuah data terdistribusi normal atau tidak) biasanya
dilakukan sebagai persyaratan atas sebuah metode tertentu, misalnya dalam
regresi linier sebagai salah satu persyaratan asumsi klasik, penentuan apakah
menggunakan statistik parametrik nonparametrik, dll.
23. Konsekuensi
dari adanya masalah normalitas adalah pengujian normalitas ini berdamoak
pada nilai t dan F karena pengujian terthadap keduangan diturunkan dari asumsi
bahwa data Y atau e berdistribusi normal.
24. Cara
menangani jika data tersebut ternyata tidak normal diperlukan upaya
untuk mengatasi seperti memotong data out liers, memperbesar sampel atau
melakukan transformasi data.
Komentar
Posting Komentar