EclipseでHadoopソースを読む準備

これまでずっとEmacsで暮らしてきた人間が,HadoopのためにまさかのEclipse導入です.
trunk(今回はMapReduce部分)をコンパイルするところまでのメモ.
なお,参考URLにある,Vimeoの動画を先に見た方がよいです.

何はともあれEclipse

Eclipse Downloadsからバイナリをダウンロードして,インストール

環境設定

ANT_HOME設定
  • Java-BuildPath-Variablesを選んで,ANT_HOMEを/usr/share/antにします
Pluginインストール
  1. SVNKitをインストール (http://eclipse.svnkit.com/1.3.x/)
  2. Subclipseをインストール (http://subclipse.tigris.org/update_1.2.x) ただし,PCにインストールされているSubversionのバージョンに依存するので注意
  3. 環境設定-Team-SVN-SVNインターフェイスをSVNKitにする

trunkをチェックアウト

  1. Project-Build Automaticallyをオフにする
  2. プロジェクトエクスプローラをCtrl+クリック
  3. New-Other-SVN-SVNからプロジェクトをチェックアウト
  4. リポジトリを指定 (http://svn.apache.org/repos/asf/hadoop/mapreduce/)
  5. build.xmlとかも必要なので,対象フォルダはtrunk全体を指定
  6. JavaProjectとしてプロジェクト生成
  7. (重要)ここですぐにFinishにせずに,Nextへ!!
  8. Default Output folderを "PROJECT_NAME/build/eclipse-classes" のようにする

ビルド

本体のビルド
  1. プロジェクトエクスプローラからbuild.xmlを選んで,Ctrl+クリック
  2. compile, compile-mapreduce-testを選択
  3. run!
  4. 一度プロジェクトをclose
  5. 再度open
  6. BuildpathのlibrariesにHadoop関連のjarができていることを確認
  7. refresh
  8. Buildproject
JUnitも動かす場合