タグ

iscsiに関するdefiantのブックマーク (21)

  • FCoE vs 10GbE+iSCSI、どちらが速い? ネットアップとブロケードが共同検証

    Fibre Channelのストレージエリアネットワーク(SAN)と同等の機能をイーサネット上で実現するFCoE(Fibre Channel over Ethernet)。FCoEでは、10ギガビットイーサネット(10GbE)のデータリンク層に相当する部分をDCB(Data Center Bridge)という技術で拡張し、パケットロスなどをほとんどなくすなど信頼性や性能を高め、その上にFibre Channelのプロトコルをのせています。 FCoEの登場によって、これまで物理的に分かれていたSANとLANの2種類のネットワークは、イーサネットで統一されようとしています。 しかしイーサネットでブロックデバイスとしてのストレージにアクセスするならば、iSCSIを利用してもいいはず。iSCSIとはSCSIプロトコルをIPネットワーク上で利用する技術10GbEなら当然iSCSIも高速に動作するは

    FCoE vs 10GbE+iSCSI、どちらが速い? ネットアップとブロケードが共同検証
  • DRBD + Keepalived + iSCSI target を VMware ESXi から使うメモ - 酒日記 はてな支店

    単なるメモです。 ホストを 2台用意して DRBD でミラーリング iSCSI Enterprise Target で iSCSI target にする Keepalived VRRP で VIP を振って Master/Backup 構成で failover 可能に VMware ESXi からその iSCSI target 上に仮想マシンを構築 failover しても仮想マシンが止まらない という構成ができた。OS は CentOS-5.2。 仮想マシンで make などをして、IO がガリガリ起きている状態で failover (マスターになっているマシンの電源断とか) しても、仮想マシン側では IO が数秒待たされるだけで特にエラーなどは起きず。結構気持ちいいなこれ。 ただし、DRBD のプロトコルが A or C だと大丈夫だが、B だと仮想マシン側で IO error が大量

    DRBD + Keepalived + iSCSI target を VMware ESXi から使うメモ - 酒日記 はてな支店
  • Fedora11でdevice mapper multipathを使ってみた (1) - aaabbb_200904の日記

    確実に外部ストレージへの接続を行うため、外部ストレージを利用する際には複数のHBAにより、multipathを使いたいのだが、CentOSやFedoraにもクライアント側のmultipathの機能がある。 既にopenfiler を使って、iSCSI target が使えるようになっているので、Fedora11 からmultipathを使ってみた。 大まかな使い方はこちらと同様になる。 http://www.redhat.com/docs/en-US/Red_Hat_Enterprise_Linux/5/html/DM_Multipath/index.html まず、iSCSIのストレージに複数のHBAがある状態にするため、openfilerにログインし、 # ifconfig eth0:1 xx.xx.xx.xx などにより、二つ目のIPを付与する。実際には1つのNICしかないため、冗長

    Fedora11でdevice mapper multipathを使ってみた (1) - aaabbb_200904の日記
  • OCFS2の実験 — takaki-web.media-as.org

    <p>NFSの代わりに使ったりするということだったので、サーバとクライアントという図式でサーバが調整を行うのだと思っていたら違っていた。各サーバーが共有のブロックデバイスを持ち、各サーバーが互い協調して書き込みをする仕組みだった。つまりFCやiSCSIで共有ディスクを接続して運用するということになる。</p> <p>今回の実験ではLinuxのiscsitargetを使った。iscsitargetでiSCSIディスクを提供するサーバーを1台用意して2台のクライアントからiSCSIでブロックデバイスを共有。そしてOCFS2でマウントする構成を取った。kernelは 2.6.26-2-{686,amd64}で実験。<br /></p> <h2>iSCSIの設定</h2> <p></p> <p>ざっと書く。iSCSIなりFCなりで共有ディスクがすでにあるなら飛ばす。</p> iscsitarget

  • Setting up Oracle VM using iSCSI storage

    Virtualization Technology isn’t new to the technical magazines, but the frevour at which companies bring out their virtualization products shows how HOT it has become at the data centers at this point when the companies vie each other to go GREEN. Oracle has brought out the Oracle Virtualization Product using the Xen hypervisor,  an Open Source s/w and widely used in all Linux Distributions for vi

    Setting up Oracle VM using iSCSI storage
  • 基幹系サーバ統合に適したストレージ・ネットワーク要件を探れ!

    iSCSI? それともFC? ミッション・クリティカルなアプリケーションに耐えられる性能と信頼性を得られるか? ある中堅企業の情報システム部門に勤務する入社7年目のケイコと、入社3年目のタカシ。2人は、サーバ仮想化を中心にしたシステム全体の再構築プロジェクトを任されている。第1フェーズで実施した小規模なサーバ統合では良い結果を得られたのだが……。 ケイコ 昨年実施した第1フェーズでは情報系やWebなどのサーバの統合に成功したわけだけど、これから着手する第2フェーズではいよいよ基幹系サーバの統合に取り組むことになるわ。予算の制限も厳しい中、初期投資を抑えながら最適な環境を構築するにはどうしたら良いと思う? タカシ え? 基的に第1フェーズと同様の考え方で大丈夫なんじゃないですか? ケイコ そうね。でも今回のプロジェクトは大規模だし、トラフィックも大きくミッションクリティカルなアプリケーショ

    基幹系サーバ統合に適したストレージ・ネットワーク要件を探れ!
  • MBRと"/boot"をバックアップして障害に備える、CentOSでiSCSI活用(前編) « SawanoBlog.

    CentOS5のインストーラは、iSCSIのデバイスを認識できるのでので、このような環境を作ってみた。 "/boot"をローカルに置き、ほかは全部iSCSI。 用途 場所 dev? /boot ローカルディスク /sdb1 SWAP ローカルディスク /sdb2 / iSCSI /sda1 図でみるとこんな感じだ。 画像:Linux+iSCSI NICがiSCSI起動に対応していれば、しょっぱなからiSCSIいけたものを。。。 だがこれはこれで面白い環境なので気にいっている。 しかしこの環境、"/"はiSCSI経由、ZFSの上にいてるので大分堅牢になっている、データの消失は皆無といってよく、パフォーマンスも申し分ない。 ただ、ローカルディスクが1台なのだ。これがぶっ壊れたらさあどうすんのよと思ったので色々試してみた。 結論から言うと「/boot をdumpでダンプしておく」

  • Openfiler ― Friendly enterprise storage management platform

    License  |  Terms & Conditions  |  Privacy Policy ---  [e] info@openfiler.com  ---  [t] +44 (0)845 056 8743  ---  [t] +1 678 383 4234  ---  [f] +1 404 592 0330

  • Software Storage - An effort to Cloud Storage with iSCSI

    サイトでは、iSCSIを利用して複数のhostのstorageをまとめて管理するsoftwareの開発過程を公開しています。 以下の記事カテゴリを用意しています。 Concept Software Storageを開発する上での、目標、指針を記しています。 Case Study Software Storageの利用シーン、適用例を挙げています。 Documents sstoragedのinstall/configuration方法を記したDocumentです。 PerformanceiSCSI Enterprise Targetとの性能比較結果を記載しています。 iSCSI targetを作る Software Storageの基機能であるiSCSI targetの設計、実装過程を公開しています。 開発日誌 開発者の日誌、駄文です。 Trac 開発repositoryです。 s

  • iSCSI Boot その2(Multipath I/O): funなJava、mocoなLinux

    前回に構築した iSCSI Boot なシステムでは、 iSCSI へのネットワーク接続ラインが物理的に1しかないため、このラインやネットワークに障害が発生すると、システムが停止してしまう。 そこで、今回は Multipath I/O の仕組みを利用してパスの冗長化をする。 ここでは、起動時に initrd 内でマルチパスデバイスを(毎回)作成して、そのデバイスを利用するような方法を考える。なお、すでにファイルシステムを作成しているデバイスをマルチパスデバイスとするために、persistent-superblock は利用しない(使うと、ファイルシステム異常となる。mdadm 的には Create ではなく Build を使用するということ)。 initrd の修正 まず、既存の initrd を展開する。 # cd /tmp # mkdir initrd # cd initrd # z

  • iSCSI Boot: funなJava、mocoなLinux

    Intel の PCI Express 版 PRO/1000 Server Adapter は iSCSI Boot をサポートしている。今回はこれを利用した iSCSI Boot システムの構築方法についてまとめる。 Intel PRO/1000 Server Adapter の設定 Intel の PCI Express 版 PRO/1000 Server Adapter の標準のままでは iSCSI Boot ができないので iSCSI Boot に対応するには Flash ROM を書き換えなければならない。そこでまず、Download Center より、ISBOOT.EXE を取得する。 取得した ISBOOT.EXE を実行すると保存場所(展開場所)を聞かれるので適当に指定。この展開したディレクトリの iSCSIUtl\DOS に iSCSIUtl.exe があるので、DoS

  • Multipath I/O その2: funなJava、mocoなLinux

    昨日に引き続き、Multipath I/O についてまとまる。 fail と fail からの復帰 マルチパスデバイスを mount した状態で、その mount 領域にアクセスしているときに、そのアクセスで使用しているパスに障害が発生すると、数十秒してから別なパスに切り替わる。 このときのマルチパスデバイスの状態は以下のように、アクセスに失敗したパスで見えているデバイスが faulty spare とマークされる。 # mdadm --detail /dev/md0 /dev/md0: Version : 00.90.03 Creation Time : Fri Aug 6 17:10:00 2007 Raid Level : multipath Array Size : 8257344 (7.87 GiB 8.46 GB) Raid Devices : 2 Total Devices

  • Multipath I/O その1: funなJava、mocoなLinux

    日は、Linux で Multipath I/O を実現する方法のまとめその1。 SCSI(iSCSI含む)デバイスへの I/O パスを冗長化するために、Linux では mdadm によりマルチパスデバイスを作成することができる。 以下では、CentOS5(+ iSCSI)の環境でマルチパスデバイスを作成、使用する方法を記述する。 マルチパスデバイスの作成方法 まず物理的に1つの LUN に対して、2つ(以上)のパスで接続しておく。 iSCSI であれば、iSCSI Target を2つのネットワークアドレスを持つように設定し、Initiator からそれぞれのアドレスに対して接続する。 ここでは、同じ LUN に対して /dev/sda1 /dev/sdb1 のように見えているとする。 そこで、次のように mdadm コマンドを使い マルチパスデバイスを作成する。 # mdadm -

  • Intel(R) Core(TM)2 Duo Processor Overview

    Using Intel.com Search You can easily search the entire Intel.com site in several ways. Brand Name: Core i9 Document Number: 123456 Code Name: Emerald Rapids Special Operators: “Ice Lake”, Ice AND Lake, Ice OR Lake, Ice* Quick Links You can also try the quick links below to see results for most popular searches. Product Information Support Drivers & Software

    Intel(R) Core(TM)2 Duo Processor Overview
  • V-Switch3400

  • Vine Linux 4.1 で iSCSI target - (1) カーネルソース入手編 - ふるた技工所(てっこうしょ):楽天ブログ

    2007.05.14 Vine Linux 4.1 で iSCSI target - (1) カーネルソース入手編 カテゴリ:ソフト開発日誌 Vine Linux 4.1 で iSCSI Target をインストールして Windows から LAN 経由で SCSI ドライブとして使う実験をしてみた。手順が長いので分割して記録しておく。 2008.3.5 kernel-2.6.16-0vl76.28 で手順の変更に気づいたので修正版を加筆します (1) カーネルソース入手編(このページ) (2) iSCSI Enterprise Target コンパイル編 (3) 仮想ドライブ準備編 (4) iSCSI Enterprise Target 設定・起動編 (5) Windows 側の設定 DION なので KDDI Labs からカーネルソース kernel-2.6.16-0vl68.sr

    Vine Linux 4.1 で iSCSI target - (1) カーネルソース入手編 - ふるた技工所(てっこうしょ):楽天ブログ
  • Insider's Eye:新世代SANの普及を目指す「Simple SAN」とは何か?(2) - @IT

    Peter Pawlak 2005/06/01 Copyright (C) 2005, Redmond Communications Inc. and Mediaselect Inc. MSのSimple SANイニシアティブの狙い Windows Server 2003にはSANサポートが組み込まれているほか、以下のようなストレージ関連の機能強化が多数施されている。 ボリューム・シャドウ・コピー・サービス(VSS)によるスナップショットのサポート。これにより、バックアップや、古いバージョンへのロールバック機能が大幅に向上している。 仮想ディスク・サービス。DASおよびSANの両方のディスクとコントローラの管理に使用できる標準のAPIを提供する。 SCSIやマルチ・ホスト・バス・アダプタのサポートなど、SANシナリオを支援する機能の追加(詳細については、「WindowsにおけるiSCSIサ

  • http://emc-info.jp/

  • 貧乏人のためのboot-from-SAN (3) iSCSI InitiatorとVM編 - Ogawa::Memoranda

    このエントリーでは、VMware Serverが動作するホストマシン上にiSCSI Initiatorを設定し、iSCSIディスクをVMのPhysical Diskとして利用する方法について述べます。 以降の説明では、ホストマシンにはCentOS 4.4とVMware Server 1.01がインストールされているものとします。 なぜCentOSなのかといえば、RedHat Enterprise Linuxとバイナリ互換性があるので、VMware Serverのインストール時にカーネルモジュールのコンパイルが不要なので楽である(という理由でVMware Serverホストに使うことを私が好んでいる)からです。 iSCSI Initiatorのインストールと設定 まず、iscsi-initiator-utilsをインストールしておきます。 # yum -y install iscsi-ini

  • http://emc-info.jp/col/isd/124.html