Visual Studio Codeの使い方、基本の「キ」:特集:Visual Studio Code早分かりガイド(1/6 ページ) Microsoft発のクロスプラットフォームなテキストエディタ、「Visual Studio Code」の使い方の基本をまとめる(バージョン1.25対応)。
何日か前からAtomでVim Modeを使い始めた。 vim-mode Atomの前はVimを使っていたので、結構快適になった。ガチのVimmerの人たちには物足りないかもしれないけど、自分程度のなんちゃってVimmerは特に不満なく使ってる。 ただ、以下の二つがあればもっと使いやすいと思った。 ノーマルモードに入るときに自動でIMEがオフになる Atomから離れるときに自動的にノーマルモードに戻る どっちもAtomのinit.coffeeになんか書くことで実現できないかなと思って調べ始めた。 結論から言うと、1.はKarabiner(旧KeyRemap4MacBook)の設定で実現できた。 2.についてはinit.coffeeでやろうとしたけど、中途半端なところで諦めた。 以下で詳しく書く。 ノーマルモードに入るとき自動でIMEオフ ググったらすでにやってる人の記事が簡単に見つかって、そ
The unsung heroes of log analysis are the log collectors. They are the hard-working daemons that run on servers to pull server metrics, parse loogs, and transport them to systems like Elasticsearch or PostgreSQL. While visualization tools like Kibana or re:dash bask in the glory, log collectors’s routing making it all possible. Here, we will pit the two of the most popular data collectors in the o
ついにガロアが死んだ年齢を超えてしまったことに気がつき、自分がまだ何も成し遂げていないことを悲しく思う今日このごろです。 さて、今日はGoogleが出した機械学習ライブラリのTensorFlowの使い方について軽く説明しつつ、ゆるゆりの制作会社の識別を行おうと思います。 TensorFlowとは TensorFlowはGoogleが11/9に公開したApache 2.0ライセンスで使える機械学習ライブラリです。Googleは様々なところでプロダクトに機械学習を活用していますが、TensorFlowは実際にGoogle内部の研究で使われているそうです(TensorFlow: Google 最新の機械学習ライブラリをオープンソース公開 - Google Developer Japan Blog)。 Googleのネームバリューは恐ろしいもので、GitHubのStar数はすでにChainerやC
New Relicは以前はもっと安かったようなのですが、どうなんでしょう。Datadogとmackerelはほぼ同じのようですね。 実は最大メトリクス数とか機能とか細かい違いは沢山あるんですが、mackerelもNew Relicも詳しく無いのでそこは省略します。 とりあえず使うDatadog(導入手順) Datadogは非常に簡単に使うことができます。 まずはここからsign inしてログインします。 https://app.datadoghq.com/account/login 次にIntegrations -> Agentページを開きます。 最後にDatadog agentを入れたい(監視したい)環境を選んで、指示通りのコマンドを叩くだけです。例えばMacマシンを監視する場合はこんな感じのコマンドが表示されているはずです。 DD_API_KEY=あなたのKEY bash -c "$(
はじめまして、WEBエンジニアの石橋です。 エウレカではpairs全体の開発責任者としてサーバサイドの開発・管理、インフラの構築・管理を行っています。また、数字やリソースの計画・管理など一部プロデューサー業務も担当しています。 前々職では受託のWEBエンジニアを4年、前職では自社サービスの基幹システムやECシステムのインフラ構築・開発などIT部門の統括、物流・CS部門の統括、自社メディアのプロデューサーとしてマルチタスクな4年間を過ごしていました。 趣味は漫画を読むことです、が最近インフラ周りに時間を取られてなかなか読めていません。。漫画が読めない時間が長く続くと、自分の中の何かのエネルギーがどんどん減っていきいずれは枯渇するような気がしてなりません。1分でも多く漫画を読む為にも、まずはしっかりインフラを整備せねばと今日も仕事に励んでいます。 さて今回は初めての投稿ですので、まずは先日会員
目次 1. まえがき 2. pairsとシステム 3. kibana サンプルシステム構築 3.1 サンプルのサーバー構成例 3.2 fluentd 3.3 Elasticsearch 3.4 kibana 4. kibanaを使う 5. エウレカでの実際の活用事例 6. 〜終章〜 1. まえがき 1.1 対象者 気軽にデータ収集をしたいと思っている開発者 基本的なLinuxコマンドの理解がある方 1.2 この記事を読んで分かること fluentd x Elasticsearch x kibana を用いたアクセスログの収集・計測方法 pairsのシステム概要 私の好きなアニメ pairs高速化チーム 1.3 この記事を読んでも分からないこと 本格的な統計解析 恋人の作り方 1.4 自己紹介 はじめまして。サービス事業部の森川と申します。 エウレカには今年のはじめ頃にJoinしました。 エ
要約 Docker監視はDatadog、New Relicの2強、DIYでやるのは分が悪すぎる モダンブラウザでELB要らずになる??? はてなやpixivの若手は素でDocker運用はじめてるけど、次も使うかは微妙らしい サービス事業者は開発用途に絞ったほうが幸せそう Google Dataflowなるフルマネージド(MapReduce,Spark)++が出る バッチとストリームの分界も含めてフルマネージド 真剣にDocker運用を考える人に、各種監視ツールとサービスを比較 naotaka jay hotta Datadog Dockerのモニタリングについて、真剣に考え始めているハズ 5 year Datadog day event 今日で5年目、NYでパーティーが始まっている 「なぜその技術を使わないといけないのか?」 ビジネス視点で考え続けることが、エンジニアとして重要になってきて
はじめに AWSチームのすずきです。 クラウド型のサーバ監視サービスとして提供されている、 NewRelic、Datadog、mackerelを利用して、PHPアプリ(WordPress)が動作するAmazonLinux環境を監視する機会がありました。 各ツールについて特別なカスタマイズを実施せず、確認する事ができた項目について紹介させて頂きます。 各監視サービスの概要 NewRelic URL:http://newrelic.com/ 有償プラン:149$/1台(Pro) Datadog URL:http://www.datadoghq.com/ 有償プラン:15$/1台 mackerel URL:https://mackerel.io/ja/ 有償プラン:2000円$/1台(Standard) AWS CloudWatch URL:https://aws.amazon.com/jp/c
The following is a soup to nuts walkthrough of how to set up and deploy a Django application to Amazon Web Services (AWS) all while remaining sane. Tools/technologies used: Python v2.7.8 Django v1.7 Amazon Elastic Beanstalk, EC2, S3, and RDS EB CLI 3.x PostgreSQL Now with Python 3! Check out the updated version of this article here. This article has been updated to cover deploying with Python 3 be
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? @j5ik2o と ElasticBenstalk(以下 eb)の話を飲み屋でしてたら、案外共有したほうが良さそうなことがあったのでそのために共有です。 前提知識のために読んできて欲しいドキュメント http://docs.aws.amazon.com/ja_jp/elasticbeanstalk/latest/dg/create_deploy_docker_console.html http://docs.aws.amazon.com/ja_jp/elasticbeanstalk/latest/dg/create_deploy_doc
こんにちは、井上です。 先週末、東急ハンズのネットショッピングサイト、ハンズネットのWEBアプリケーション・サーバーを、ElasticBeanstalk MultiContainer Docker でリプレイスを行いましたのでその紹介をしたいと思います。 ハンズネットはシステム構成として、ざっくりとフロントのWEBアプリケーション・サーバーとバックエンドのAPIサーバーにより構成されています。 バックエンドのAPIサーバーについては、2014年の4月頃からBeanstalk/PHPに順次置き換える作業を進めており、DynamoDBとBeanstalkによるオートスケールの効果もありそこそこ負荷に耐えられるようになってきたのですが、それに伴いフロントエンドの部分がスケールしないことがボトルネックになってきていました。 特にTVの放送時などの突発的なアクセス増の際には、手動によるスケールには限
数ヶ月間、私のお小遣いを貪り続けてきたAWS EC2上のハニーポットですが、さすがに財布へのダメージが蓄積してきたのでいったん停止させました。停止させたもののそれなりにデータを蓄積していたので、さてどうしようかなと思っていたのですが、 先日、長崎で開催された情報処理学会のコンピュータセキュリティシンポジウム2015で聞いた講演の一つに SSHの新しい攻撃方法について触れられていてちょっと気になったので、収集したデータのうちSSHに関しての通信のみちょっと分析してみました。 ハニーポットの構成やデータの収集方法については過去のエントリを参照していただきたいのですが、 今回はAWS Asia Pacific (Tokyo)上でEC2のインスタンス4つを4月頭から6月末まで動かしてデータを取得しました。財布へのダメージも4倍! しかしおかげで複数のIPアドレスで観測した時に生じる差分について知る
はじめに 藤本です。 AWS LambdaがPythonに対応してから色々なことを試しています。 概要 ELBのアクセスログはS3に出力することが可能です。5分なり、1時間なりで定期的にS3にログファイルが作成されます。S3に集約することは簡単でもS3に出力されたファイルはAPIによるアクセスが必要、ログファイルが細かく分割されていることもあり、可読性の面においては優れていません。 そこでAWSではログを管理できるサービスとしてCloudWatch LogsやAmazon Elasticsearch Serviceを用意しています。Amazon Elasticsearch Serviceに関してはAWSのGithubでS3 -> AWS Lambda -> Elasticsearchの流れとなるソースコードが公開されています。ありがたい!これにより簡単にログデータを取り込むことが可能です。
はじめに こんにちは植木和樹です。オンプレで10年近くサーバーの保守運用をやっていた経験からいいますと、AWSの障害発生率は非常に低くて驚きます。数百台規模のサーバーを扱ってますと、毎日どこかでのサーバーでディスク、CPUファン、メモリーパリティエラーなんかの故障が起きていて日々対応に駆けまわってた覚えがあります。 さてAWSの障害発生率が低いといってもゼロというわけではありません。仮に0.1%だとしても1000日つまり3年運用していれば1回くらい障害に遭遇するものです。0.01%だったとしてもサーバーが1万台あれば1日1回なにかしらのトラブルに遭遇しても不思議ではありません。 トラブルに遭遇すると、当然サービスや処理に影響をきたしてしまうわけで早期の暫定処置と、その後に恒久的な対策が求められます。その時に重要なのは早く正しく原因を特定することです。トラブルシューティング力が重要です。 A
Netflixがオープンソースとして公開した「Spinnaker」は、複数のクラウドに対するアプリケーションのデプロイとクラスタの管理を実現し、継続的デリバリのプロセスを自動化してくれるソフトウェアです。 NetflixがSpinnakerを紹介したブログ「Global Continuous Delivery with Spinnaker」では、次のように説明されています。 Spinnaker facilitates the creation of pipelines that represent a delivery process that can begin with the creation of some deployable asset (such as an machine image, Jar file, or Docker image) and end with a de
はじめに こんにちは植木和樹@上越妙高オフィスです。 利用しているEC2を踏み台にした外部への攻撃が行われていると、攻撃先のサーバー管理者からAWS宛に不正利用報告(Abuse)が送られる場合があります。AWSでは報告を受けて、そのサーバー(IPアドレス)の利用者宛に警告メール(Abuse Report)で通知します。 今回、とあるAbuse Reportが届いた際の攻撃手段の調査をメモしたので、主に有用だったlsofとstraceコマンドの使い方についてまとめました。 EC2マネージメントコンソールで状態を確認する まず確認するのはマネージメントコンソールです。AWSから通知のあったIPアドレス(Elastic IP)から、EC2インスタンスを特定します。 次に各種CloudWatchのメトリクスを確認します。外部への攻撃を行われるとNetwork Outが極端に高くなる傾向があります。
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く