AWS Dev Day Tokyo 2017 Day4 Track1 15:20 - 16:00 #AWSSummit #testlambda 当日のセッション録画: Testable Lambda|AWS Summit Tokyo 2017 - YouTube https://www.…
AWS Management Console において、AWSアカウントから他のAWSアカウントにスイッチロールできますが、これの最近の履歴が5つまでしか表示されない。あくまでも最近使ったものという位置付けなんだと思います。 某仕事上、1つのアカウントから多数の他のアカウントに Switch Role にせざる得ないので専用の URL をブックマークしていました。しかし、これでも毎回補完された入力フォームが挟まれて怠い(このページ遷移が結構かかります)。 このような理由で、Switch Role の履歴(リスト)を拡張する Chrome Extension を作りました。Chrome Web Store で公開しているので簡単にインストールできます。 chrome.google.com 特徴 Switch Role の履歴に設定に定義されたプロファイル(アカウント)の分が項目増えるリスト拡
以下、ざっくり説明していきたいと思います。 > Web Server/Workerの移行Web Server/Workerの移行 従来はHeroku(US region)にサーバがあったため、日本からのアクセスの場合チューニングをどう頑張っても数百msの遅延がありました。これをAWS(Tokyo region)に移行することで、ページを表示するのに要する時間が1/2 ~ 1/3まで改善されました。 > DockerDocker 移行開始直後は自分が不慣れなこともあり、このタイミングでDockerを採用する気はありませんでした。しかし、実際にECS上でのデプロイを検証したり、Dockerについて学習するうちに移行のイメージが掴めてきたのでDockerを採用することにしました。 もともとHerokuで動いていて The Twelve-Factor App にほぼ沿っていたので、やってみるとDo
AWS Weekly Roundup – AWS AppSync, AWS CodePipeline, Events and More – August 21, 2023 In a few days, I will board a plane towards the south. My tour around Latin America starts. But I won’t be alone in this adventure, you can find some other News Blog authors, like Jeff or Seb, speaking at AWS Community Days and local events in Peru, Argentina, Chile, and Uruguay. If you see […] New – Amazon EC2 H
はじめに こんにちは。望月です。 過去に本ブログで、IAM Roleの仕組みについて都元から解説がありました。 - IAMロール徹底理解 〜 AssumeRoleの正体 IAM Roleの仕組みについて非常にわかりやすく解説されていますので、ぜひ読んでみてください。今日はもう少し利用側の観点に立ったブログを書いてみようと思います。 IAM Roleってどうやって使われてるの IAM Roleを利用する目的は、「ソースコード内にAWSのAPIキーをハードコードすることなく、AWSのAPIを叩きたい」というものが殆どだと思います。ですが、なぜIAM Roleを利用すると、アクセスキーをソースコードで指定することなくAWSのAPIが利用可能になるのでしょうか。 今日はその仕組みについて知りたくなったので、AWS SDK for Rubyのソースコードから読み解いてみました。SDKのバージョンは1
1GBが約1円/月のAmazon Glacierへ簡単にバックアップ&同期できるフリーソフト「FastGlacier」 – GIGAZINE 先日GIGAZINEでこんな記事が公開されてました。反応を見ていると「写真の保管に使えそう」「消せないファイル置き場にいいね」などと皆さんの印象はよさそうですが、実はこれ、「転んでも泣かない方」専用です1。 注意喚起として、転びそうなポイントを挙げておきます。 ダウンロードは二重の「有料制」 公式サイトによると、データをダウンロードするにはデータ取り出し料とデータ転送料の2種類の費用を払う必要があります。 前者は無料範囲を越えると0.01USドル~/GB、後者は~0.12USドル/GBということで、例えば100GBのアップロード済みデータを全てダウンロードすると 一ヶ月かけてゆっくりダウンロードする 12.83USドル 回線速度が許す限り急いでダウン
今回でこの連載も最終回です。これまでAmazon Web Services、さくらのクラウド、Windows Azure、Google App Engineについて触れてきました。最終回ということでこれらのベンチマークを比較してみたいと思います。 unixbenchで比較 Amazon Web Services(AWS)、さくらのクラウド(以降さくら)、Windows Azure(以降Azure)は、IaaS(仮想サーバ)がありますが、Google App EngineはPaaSなので単純な比較はできません。まずは前者の3つについて、比較をしてみましょう。 今回はパフォーマンス計測の定番、unixbenchで比較をしてみました。 https://code.google.com/p/byte-unixbench/ 計測対象は下記の通りです。 ディスクについては、AWSではProvis
以前、S3ってなんじゃ?(s3cmd編)の記事を紹介しましたが、先日s3cmdで調査が必要な場面に遭遇したため、 今回はその件について紹介したいと思います。 ○問題 WEBサーバからS3へのファイル同期にs3cmdを使ったプロジェクトがありました。 しかし、linuxのサーバからS3へファイルを同期するのにs3cmdのsyncコマンドを使用しており、 その同期がとても遅いというのです。 ローカルで1ファイルを追加したとしても同期の度に数時間かかっているようでした。 確認してみたところ、同期対象のS3バケットに数百万という数のファイルが存在しており、 それが問題となっているようでした。 そこで、対処方法を調べてみました。 ○再現 まず、手元のEC2環境で同じ状況を再現してみます。 適当なディレクトリにgitからある程度サイズのあるプロジェクトをいくつかcloneします。 # mkdir /r
Amazon S3 Tools: Command Line S3 Client Software and S3 Backup AWS S3 Command Line Clients for Windows, Linux, Mac. Backup to S3, upload, retrieve, query data on Amazon S3. S3cmd : Command Line S3 Client and Backup for Linux and Mac Amazon S3 is a reasonably priced data storage service. Ideal for off-site file backups, file archiving, web hosting and other data storage needs. It is generally more
なんかまわりがきちんとブログ書いているのを見て、たまには書いてやろうと思った次第です。訳あって、AWS Simple Work Flowを動かして色々検証しています。SWFを一言でいうなら、非同期かつノンブロッキングなやりとりが含まれる複数コンポーネント間でのワークフローを比較的楽に書くためのサービス。それなりに奥が深いのと、実際に日本語の情報が皆無なので、ひとまず動かすところまででも晒してみようと思います(先に続くかわからない・・・)。 動かす言語はJavaにするので、他言語の人はすまん。ちなみにフレームワークも利用します。AWSが出しているFlow Frameworkで、こいつはSWFを使うのを(多分)楽にしてくれる。SWF自体はワークフローサービス(というかワークフローに伴う状態管理サービスが実態に近い)なので、HTTPコールさえできればどの言語からも利用可能ではあるはず。ただし多分
Architecting an Highly Available and Scalable WordPress Site in AWS Why this presentation ? WordPress is used by over 14.7% of Alexa Internet's "top 1 million" websites As of August 2011 WordPress powers 22% of all new websites As of December 2011, version 3.0 had been downloaded over 65 million times Provide some architectural insights to build Highly Scalable and Available WordPress sites in AWS
EC2インスタンスで運用をする際に、インスタンスの死活チェックをおこないインスタンスが死んでる際にはメールで知らせたいという要求がありました。そこで折角AWSを使用しているのですから、CloudWatchとSNSを使用してそれを実現してみたいと思います。 準備 まずは環境を用意します。EC2インスタンスを作成します。作成時点でCloudWatchを有効にしておきます。yumでhttpdをインストールして稼動させます。適当にindex.htmlファイルを作成してWebから参照できるようにします。最後にELBを作成してインスタンスを紐付けます。chkconfig httpd onで自動起動にしておくと、後ほどインスタンスのSTOP-STARTをする際に楽ができそうです。 Alarmの作成 管理コンソールよりCloudWatchのAlarmを作成します。今回はELBのHealthyHostCou
Amazon CloudWatchのアラート機能を使い、インスタンスのCPU/死活監視をしてみた 前提条件 監視対象インスタンス: us-west の t1.micro (monitoringはBasic) ※インスタンス番号を控えておく 設定 ManagementConsoleにCloudWatchタブが出来ているので、クリック(US East以外の場合はRegionを変更) Create A New Alarmをクリック 先ほどのインスタンス番号をSearchの横の欄に入れてフィルタする CPUUtilizationの欄を選び、Continueを押す Alarmに任意の名前(Name)と説明(Description)を付ける 敷居値(Threshold)を決める(仮に40%以上が5分としました: >= 40 for 5 minuties) 次にいつAlarmを送るかを設定します ALA
S3やCloud Frontにファイルを置いて閲覧させるようにしたならば、当然「アクセスログはどうなるの?!」と聞かれることでしょう。 もちろんアクセスログを取得することができます。 ■S3 ログについてのドキュメントはこちら。 Amazon Simple Storage Service Developer Guide - Server Access Logging http://docs.amazonwebservices.com/AmazonS3/latest/dev/ServerLogs.html ログのフォーマットは一般的なWebサーバーのログとは違っています。 Amazon Simple Storage Service Developer Guide - Server Access Log Format http://docs.amazonwebservices.com/Amaz
アーキテクチャダイアグラムは、設計、デプロイ、トポロジーを伝達する手段として優れています。 このページでは、ダイアグラムの構築に役立つ Amazon Web Services (AWS) 製品のアイコン、リソース、およびツールを提供しています。AWS では、お客様やパートナーがこれらのツールキットやアセットを使用してアーキテクチャ図を作成できるようにしています。 AWS アーキテクチャアイコンはシンプルに設計されているため、ダイアグラム内で簡単に使用できます。ホワイトペーパー、プレゼンテーション、データシート、ポスターなどの資料にアイコンを使用することも可能です。 ダイアグラムは、サードパーティーツール上の既存のライブラリを使用して構築できます。ライブラリにはレガシーアイコンセットが含まれているものもあるため、最新のアイコンを使用していることを確認してください。
クラウドコンピューティングを活用したシステム開発・サービス提供を専門に行う株式会社サーバーワークス(所在地:東京都新宿区、代表取締役:大石 良)は、Amazon EC2が本日より東京データセンター(東京リージョン)でのサービスを開始したことを受け、Amazon EC2を日本語で操作できるサービス”Cloudworks”も東京リージョンに対応したことを発表致します。 ◆ Cloudworksについて Cloudworks (リンク)は、サーバーワークスが2010年3月より提供している、Amazon EC2を管理するウェブサービスです。 特長は以下の通りです。 1.無料 Cloudworksの利用料は無料です(EC2/AWSにかかる費用は別途米Amazon社より請求されます)。 2.日本語 米Amazon社の標準コンソールは英語表記ですが、Cloudworksを利用すると、日本語でAmazon
2011-02-08 aws, s3, backup さくらVPSサーバからAmazon S3へのバックアップ方法をまとめました。 現時点(2011-02)のAmazon S3の価格は以下の通りです。今回はシンガポールにバケットを作ってみようと思います。価格は低冗長化ストレージだと、$0.093/GB! 安いですねぇ。 では早速バックアップしてみましょう。今回の環境は以下の通り: サーバ Ubuntu 10.04.1 LTS on さくらVPS Ruby ruby 1.8.7 (2010-04-19 patchlevel 253) [i686-linux], MBARI 0x8770, Ruby Enterprise Edition 2010.02 1. 保存先のバケットを作成する AWS Management Console > S3タブを選択し、「Create Bucket」をクリッ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く