EclipseでHadoopソースを読む準備
これまでずっとEmacsで暮らしてきた人間が,HadoopのためにまさかのEclipse導入です.
trunk(今回はMapReduce部分)をコンパイルするところまでのメモ.
なお,参考URLにある,Vimeoの動画を先に見た方がよいです.
何はともあれEclipse
Eclipse Downloadsからバイナリをダウンロードして,インストール
環境設定
ANT_HOME設定
- Java-BuildPath-Variablesを選んで,ANT_HOMEを/usr/share/antにします
Pluginインストール
- SVNKitをインストール (http://eclipse.svnkit.com/1.3.x/)
- Subclipseをインストール (http://subclipse.tigris.org/update_1.2.x) ただし,PCにインストールされているSubversionのバージョンに依存するので注意
- 環境設定-Team-SVN-SVNインターフェイスをSVNKitにする
trunkをチェックアウト
- Project-Build Automaticallyをオフにする
- プロジェクトエクスプローラをCtrl+クリック
- New-Other-SVN-SVNからプロジェクトをチェックアウト
- リポジトリを指定 (http://svn.apache.org/repos/asf/hadoop/mapreduce/)
- build.xmlとかも必要なので,対象フォルダはtrunk全体を指定
- JavaProjectとしてプロジェクト生成
- (重要)ここですぐにFinishにせずに,Nextへ!!
- Default Output folderを "PROJECT_NAME/build/eclipse-classes" のようにする