Hello, dear friend, you can consult us at any time if you have any questions, add WeChat: daixieit

ECON61001

SECTION A

1. Suppose a researcher is interested in the following linear regression model

yi   =  xi(/)β0  + ui ,        i = 1, 2, . . . N,

where xi  = (1,x2,i,x3,i,x4,i)/ and β0  = (β0,1 ,β0,2 ,β0,3 ,β0,4 )/  . Given the context, the researcher is able to assume that {ui ,x }i(/) form a sequence of independently and identically distributed random vectors with E[xix ]  =i(/)   Q, a inite,  positive deinite matrix of constants, E[ui |xi] = 0 and Var[ui |xi] = a0(2) .  Therefore, she estimates the model via Ordinary Least Squares (OLS), obtaining the following estimated equation

yˆi   =  1.0213 - 0.0020 x2,i  - 0.0208 x3,i  + 0.0095 x4,i ,

(0 . 1416)          (0 .0005)                    (0 .0080)                    (0 .0088)

where the number in parenthesis is the conventional OLS standard error for the coeficient in question. The OLS estimator of a0(2)  in this model is N(2)  = 0.0081.

Given these results, the researcher concludes that β0,4   = 0 and so decides to estimate the model via OLS with x4,i excluded, obtaining the following estimated equation

yˆi   =  1.1485 - 0.0020x2,i   - 0.0211x3,i .                             (1)

Given that the sample size is N  = 108 in both estimations, calculate the OLS estimator of the error variance a0(2)  from the estimation in (1).  Be sure to care- fully explain your calculations.  Hint:  consider the F-statistic for testing β0,4   = 0.                                                                                    [8 marks]

2. Suppose it is desired to predict zt  using zˆt   = wt(/)V where wt  is a vector of ob- servable variables and V is a vector of constants that needs to be speciied. The choice of V associated with the linear projection of zt  on wt   is V0  where E[(zt  - w Vt(/)0 )wt] = 0.

(a) What optimality propertydoes zˆt(o)  = w Vt(/)0 possess? (Word limit: 50)  [1 mark]

(b)  Now consider the regression model zt     =   wt(/)V0   + vt .  Is wt  contempora- neously exogenous or strictly exogenous for estimation of V0  in this model?

Justify your answer. (Word limit: 150)                                              [4 marks]

(c) Suppose the  model in part  (b) is dynamically complete.   What optimal- ity  property does zˆt(o)   possess?   Briely justify your answer.   (Word limit: 150)                        [3 marks]


3.(a)  Let A be n n nonsingular symmetric matrix. Show that if A is positive deinite

then A 1  is positive deinite. Hint: AA — 1 = In .

3.(b) Consider the classical linear regression model

y  =  Xβ0  + u,

[4 marks]

(2)

where X is the T k observable data matrix that is ixed in repeated samples with rank(X) = k, and u is a T 1 vector with E[u] = 0 and Var[u] = a0(2)IT  where a0(2) is an unknown positive inite constant. Let βˆT  be the OLS estimator of β0  based on (2) and βˆR,T  be the Restricted Least Squares (RLS) estimator of β0  based on (2) subject to the restrictions Rβ0   = r where R is a nr k matrix of speciied constants with rank(R)  = nr   and r is a speciied nr 1 vector of constants. Assuming the restrictions are correct, prove that βˆR,T  is at least as eficient as βˆT .  Hint: you may quote the formula for the variance-covariance matrix of the OLS and RLS estimators without proof; you may also take advantage of the stated result in part (a).                                      [4 marks]

4. Consider the linear regression model

y  =  Xβ0  + u,

where y and u are T 1 vectors, X is T k matrix, and β0  is the k 1 vector of unknown regression coeficients.  Assume that X is ixed in repeated sam-

ples with rank(X) = k, and u ~ N ( 0,a0(2)IT ) where a0(2)  is an unknown positive constant.  Let aˆT  denote the maximum likelihood estimator of the unknown pa- rameter vector a0  = (β0(/),a0(2))/ .  Derive the information matrix for this model.  Hint: you may state the form of the log likelihood function and score function for this model without proof.         [8 marks]

5. Consider the model

yi   =  xi(/)β0  + ui ,        i  =  1, 2, . . . ,N,

where β0   is the k 1 vector of unknown regression coeficients,  {(xi(/),ui )}

is a sequence of independently and identically distributed random vectors with

E[ui |xi] = 0, Var[ui |xi] = a0(2), an unknown inite positive constant and E[xix ] =i(/)

Q, a inite positive deinite matrix of constants.  Let N(2)  be the OLS estimator of a0(2) . Show that N1/2(N(2)   — a0(2)) N(0, u4  — a0(4)) where u4  = E[ui(4)].

Hint:  You may assume that: N — 1 xixi(/) Q; (ii) N — 1/2 vi N(0,   )

where vi       =     (ui(2)  — a0(2),x ui(/) i )/ ,  and      =  Var[vi]  is  a  inite, positive deinite

(k + 1) (k + 1) matrix whose elements you must specify as needed to develop your answer.                         [8 marks]

SECTION B

6. Consider the regression model

yi   =  xi(/)β0  + ui ,        i  =  1, 2, . . . ,N,

where β0   is the k 1 vector of unknown regression coeficients,  {(xi(/),ui )} is a sequence of independently and identically distributed random vectors with E[ui |xi] = 0, Var[ui |xi] = a0(2), an unknown inite positive constant and E[xix ] =i(/)  Q, a inite positive deinite matrix of constants. You may further assume that: (i)

N — 1 xixi(/) Q; (ii) N — 1/2 xiui N(0,a0(2)Q).

Let βˆR,N denote the RLS estimator based on the linear restrictions Rβ = r where R is a nr k matrix of pre-speciied constants with rank equal to nr  and r is a nr 1 vector of pre-speciied constants, and let N  be the vector of Lagrange Multipliers associated with this RLS estimation. Assuming Rβ0  = r, answer the following questions.

(a) Show that N1/2(βˆR,N  — β0 ) N (0, VR ) where

VR  = a0(2) (Q — 1 Q — 1 R/ (RQ — 1 R/ ) — 1 RQ — 1 ) .

Hint:  you may quote the formulae for βˆR,N   and βˆN ,  the  Ordinary Least

Squares estimator of β0 , without proof.                                          [10 marks]

(b) A colleague proposes testing H0  :  Rβ0  = r versus H1  :  Rβ0 r using the decision rule of the form: reject H0  at the (approximate) 100α% signiicance

level if

N(/)MN N    >  cnr (1 — α)

where cnr (1 — α) is the 100(1 — α)th  percentile of the χn(2)r   distribution. How- ever, your colleague is unsure what the matrix MN  should be in order that this decision rule has the properties implied by the stated signiicance level. Provide a suitable choice of MN , being sure to justify your choice carefully. Hint: you may quote without proof: (i) the formulae for N  and βˆN ; (ii) that both the OLS and RLS estimators of a0(2)  are consistent under the conditions of the question. [20 marks]

7.(a)  Let {vt }—3 be a weakly stationary time series process. Consider the following

statistic,

ρˆ4,T    = tT=1 vtvt 4

vt(2)     .

Let  {εt }—∞ denote a sequence of independently and identically distributed (i.i.d.) random variables with mean zero and variance aε(2) .

(i) Assume that vt  = εt . Show that T1/2ρˆ4,T N(0, 1).

(ii) Assume that

vt   = a4vt —4 + εt ,

where |a4 |  < 1. What is the probability limit of ρˆ4,T  as T →  ∞?  Be sure to justify your answer carefully.  Hint:  vt  has the following representation,

vt  = a4(i)εt —4i .                                                                               [9 marks]

7.(b) A researcher wishes to test the simple eficient-markets hypothesis in the foreign exchange market.  Let st  = ln(St ) and ft,n  = ln[Ft,n], where St  and Ft,n  are the levels of the spot exchange rate at time t and the n-period forward exchange rate at time t.  The simple eficient-markets hypothesis is that ft,n  = E[st+n |It] where It  is the information set at time t which for the purposes of this question can be taken to be It  = {st ,ft,n ,st — 1 ,ft — 1,n,st —2 ,ft —2,n , . . .}. Using daily spot and thirty-day forward exchange rate data for the US dollar UK pound exchange rate, the researcher estimates the model,

yt+n   =  xt(/)β0  + ut,n ,

where yt+n  = st+n  - ft,n , xt  is the 3 1 vector given by

(3)

xt(/)   =  (1, st - ft n,n , st — 1 - ft — 1 —n,n ) ,

n  =  30 and ut,n  is the error term.   If the simple eficient markets hypothesis holds in this foreign exchange market then E[ut,n |It]  = 0 and the regression coeficients in (3) satisfy a set of restrictions denoted here by g(β0 ) = 0 where g( · ) is ng 1 vector.

(i) What is g(β0 )? Briely justify your answer. (Word limit: 75)            [4 marks]

7.(b) continued

(ii) The researcher tests H0   :  g(β0 ) = 0 versus H1   :  g(β0 ) 0 using the test

statistic

ST   =  Tg(βˆT )/  ( G(βˆT ) b G(βˆT )/ ) — 1 g(βˆT ),

(4)

where G(βˆT ) = ∂g(β)/∂βb =bˆT .  Assuming T1/2(βˆT β0 ) N(0, Vb ) and b Vb , write down a suitable decision rule for this test.  If ST  = 8.2 then

what is the outcome of the test?                                                      [3 marks]

(iii) Since the yt+n  is a inancial variable, the researcher is concerned that the errors may exhibit autoregressive conditional heteroscedasticity and so has calculated b  in (4) using White’s heteroscedasticity robust estimator. Given this information, do you have any concerns about the test in part (ii)? If so then explain your concerns and how you would modify the test to address

these concerns. (Word limit: 350)                                                    [8 marks]

8. Consider the linear regression model

y1,i   =  V0 y2,i  + z 1(/),i60  + u1,i   =  xi(/)β0  + u1,i ,

where xi(/)  = (y2,i,z 1(/),i ), β0  = (V0 ,60(/))/  and assume that

y2,i   =  zi(/)0  + u2,i ,

(5)

where y1,i  and y2,i  are observable random variables, zi  = (z1(/),i ,z2(/),i )/  is a random vector of observable variables, u1,i  and u2,i  are the error terms (unobservable scalar random variables), V0  is an unknown scalar parameter, and 60 , and 0  are vectors of unknown parameters. Suppose there is a sample of N observations, and let yˆ2,i  denote the predicted value of y2,i  based on Ordinary Least Squares (OLS) estimation of (5). Deine i  = (yˆ2,i,z 1(/),i )/ . Let X be the N k matrix with ith row xi(/) , Xˆ be the N k matrix with ith  row i(/) , Z be the N q matrix with ith  row zi(/)  and y1  be the N 1 vector with ith  element y1,i . Consider the following three estimators of β0 :

βˆ1   =  (Xˆ/ Xˆ ) — 1 Xˆ/ y1 ;

βˆ2   =  (Xˆ/ X) — 1 Xˆ/ y1 ;

βˆ3   = {X/ Z(Z/ Z) — 1 Z/X } — 1 X/ Z(Z/ Z) — 1 Z/ y1 .

(a) Show that βˆ1  = βˆ2  = βˆ3 .

[15 marks]

(b)  Let ˆ = (βˆ/ , aˆ)/  be the OLS estimator of 0  = (β0(/),a0 )/  based on the model

y1,i   =  xi(/)β0  + a 2,i  + “error”

where 2,i is the ith element of 2 , the N 1 vector of residual from OLS estimation of (5). Via an application of the Frisch-Waugh-Lovell Theorem or otherwise, show that βˆ = βˆ1 . [15 marks]

9.(a)  Let {(yi ,x )}i(/) be a sequence of independently and identically distributed (i.i.d.) random vectors. Suppose that yi is a dummy variable and so has a sample space of {0, 1}. Consider the model

yi   =  xi(/)β0  + ui .

(i) Assume that E[ui |xi]  =  0.   Derive the Generalized Least Squares (GLS) estimator of β0  in this model?  Hint: you may quote the generic formula for the GLS estimator that is, βˆGLS  = (X/ — 1 X) — 1 X/ — 1 y, but you must derive for this model.                                                                                [6 marks]

(ii)  Is your answer to part (i) a feasible or infeasible GLS estimator? If infeasible then suggest a feasible GLS estimator. Do you foresee any potential prob- lems in implementing your proposed Feasible GLS estimator?     [4 marks]

(b)  Let {Vi } be a sequence of i.i.d. Bernoulli random variableswith P(Vi  = 1) = a0 . We assume here that a0  ∈ (0, 1) and that our sample size is large enough for both outcomes to occur.

(i)  Derive the Wald, Likelihood Ratio and Lagrange Multiplier statistics for test- ing H0  :  a0  = a against H1  :  a0 a . Hint: you may quote the form of the log likelihood function, the score equation and the formula for the maximum likelihood estimator for this model without proof.                          [16 marks]

(ii) Given that N  =  100 and the sample contains 55 outcomes that are one, use your statistics in part (i) to test the hypothesis H0   :  a0   = 0.5 against

H1  : a0 0.5 at the 5% signiicance level.                                        [4 marks]