タグ

障害に関するmikage014のブックマーク (49)

  • 出前館、26日からシステム障害発生中 サービスが利用できない状態 いまだ復旧のめど立たず

    出前館では25日から、セガのゲームソフト「ソニック × シャドウ ジェネレーションズ」とのコラボレーション企画を実施していた。しかし、25日午後8時にも、約2~3時間ほど一時Webサイト・アプリ共にサービスを利用できない状態になっていた。 関連記事 生鮮品や日用品を最短30分で届ける「Yahoo!クイックマート」、出前館とLINEヤフーが提供 年内に全国展開へ 出前館とLINEヤフーは13日、生鮮品や日用品などを近くのお店から最短30分で届ける配達サービス「Yahoo!クイックマート」を都内の一部地域で始めると発表した。 「出前館」の障害、原因はシステム更新時に発生したデータベースの不具合 19日夜から利用できなくなっていたデリバリーサービス「出前館」が20日夕方に復旧した。原因はシステム更新を行った際に発生したデータベースの不具合だった。 「出前館」でシステム障害発生中 半日超経過も

    出前館、26日からシステム障害発生中 サービスが利用できない状態 いまだ復旧のめど立たず
  • 世界規模でWindowsデバイスが次々とブルースクリーン(BSoD)に! 大規模障害発生中【17:10追記】/「CrowdStrike Falcon Sensor」に含まれるドライバーが原因か

    世界規模でWindowsデバイスが次々とブルースクリーン(BSoD)に! 大規模障害発生中【17:10追記】/「CrowdStrike Falcon Sensor」に含まれるドライバーが原因か
  • 2023年12月5日に発生した複数AWSアカウントが操作不能となった障害について | クラスメソッド株式会社

    クラスメソッドのAWS総合支援 コスト最適化からセキュリティ、構築支援、運用保守まで、AWS活用を支援します。

    2023年12月5日に発生した複数AWSアカウントが操作不能となった障害について | クラスメソッド株式会社
  • 全銀システムの大規模障害、「真の原因」明らかに--全銀ネットとNTTデータが発表

    全国銀行資金決済ネットワーク(全銀ネット)とNTTデータは12月1日、10月10日〜11日に発生した全銀システムの大規模障害の真の原因を明らかにした。 全銀システムは、日常の振込や送金をリアルタイムで処理するシステムで、国内のほぼすべての預金取扱金融機関が利用している。10月のシステム障害では三菱UFJ銀行、りそな銀行など10行で、他行宛の振り込みができないなどの障害が丸2日間継続した。 障害は、全銀システムの中継コンピューターを新機種「RC23シリーズ」へ交換し、その後営業運用を開始した直後に発生した。RC23シリーズ内の「銀行間手数料を処理するためのインデックステーブル」が破損しており、同テーブルを参照する際の処理でエラーが生じたためだ。 中継コンピューターは東京と大阪に1台ずつ、冗長化として設置されていたが、2台同時に新機種のRC23シリーズに切り替えたため、2台ともにソフトウェア障

    全銀システムの大規模障害、「真の原因」明らかに--全銀ネットとNTTデータが発表
  • ルーター不具合による韓国行政ネットワークの大規模なシステム障害についてまとめてみた - piyolog

    2023年11月17日、韓国の地方行政システムで3日にわたる大規模なシステム障害が発生し、韓国内の多くの行政機関の業務に支障が生じ、手続きが行えないなど市民の生活にも大きな影響が及びました。その後の調査を経て、韓国政府はネットワーク機器の異常によるものだったと原因について明らかにしています。ここでは関連する情報をまとめます。 56時間にわたり行政ネットワーク使えず システム障害は認証基盤である行政電子署名証明書(GPKI)システムで発生。韓国では公務員はシステム接続を行う際にGPKIシステムで認証を行っているため、全国の自治体で業務システムを利用できない事態となった。GPKIシステムと接続していた、閉域ネットワーク運用されている韓国内のすべての自治体が利用する「市道セオル行政システム」や行政プラットフォームの「政府24(정부24)」が利用できなくなった。 GPKIシステムは物理サーバー15

    ルーター不具合による韓国行政ネットワークの大規模なシステム障害についてまとめてみた - piyolog
  • 全銀ネット障害、いまだ根本原因特定できず メモリ不足の指摘には「分からない」

    全国銀行協会(以下、全銀)は10月18日、銀行間の送金を行う「全国銀行データ通信システム」(全銀ネット)で10日から11日にかけて発生した障害について会見を行い、現状を説明した。未だに根的な原因は特定できず、暫定的な“代替対応”のまま運用しているという。 不具合はシステムのリプレース直後に発生した。全銀は7~9日の3連休を利用し、加盟14銀行の中継コンピュータを「23シリーズ」と呼ぶ新機種に更新した。それまでの「17シリーズ」は各機関に設置していたが、今回は全銀センターに集約して運用する形にした。 9日までに製品単体試験から相互運転試験までいくつもの試験を行っていたが、不具合は見られなかったという。 しかし10日午前8時30分。システムが通信を始めると、10行の中継コンピュータで電文の送受信ができなくなった。りそな銀行や三菱UFJ銀行などで他行宛の振込取引ができない状態になった。 バック

    全銀ネット障害、いまだ根本原因特定できず メモリ不足の指摘には「分からない」
  • 全銀システム障害の原因判明、メモリー不足でインデックステーブルが不正確な状態に

    銀行間送金を担う「全国銀行データ通信システム(全銀システム)」で2023年10月10~11日に発生した障害の原因が10月16日、分かった。全銀システムと各金融機関のシステムをつなぐ中継コンピューター(RC)において、メモリー不足に起因し、金融機関名などを格納したインデックステーブルに不正な値が紛れ込んだ。 インデックステーブルはRCのディスク上にあるファイルから展開する。このファイルを作成するプログラムを実行したタイミングで、一時的に確保するメモリー領域が不足し、ファイルの内容が不正確になったという。 全銀システムの障害を巡っては、三菱UFJ銀行やりそな銀行などで他行宛ての振り込みに遅れが生じた。全銀システムを運営する全国銀行資金決済ネットワーク(全銀ネット)によると、概算値ながら10月10~11日の2日間で仕向けと被仕向けを合わせて500万件超の送金に影響が出たとしている。

    全銀システム障害の原因判明、メモリー不足でインデックステーブルが不正確な状態に
  • 全国銀行データ通信システムのシステム障害についてまとめてみた - piyolog

    2023年10月10日、全国銀行資金決済ネットワークは、同社が運用している全国銀行データ通信システムでシステム障害が発生したことを公表しました。この障害の影響により一部の金融機関で送金遅延などが生じました。ここでは関連する情報をまとめます。 560万件の取引に影響 障害が起きたのは全国銀行資金決済ネットワーク(全銀ネット)が運用する全国銀行データ通信システム(全銀システム)のうち、平日8時半から15時半まで稼働するコアタイムシステムで金融機関との接続に使用される中継コンピューター(RC)。障害は10月10日8時半に発生し、10月12日未明に復旧に向けた対応が完了、同日8時半の切替完了したことで復旧した。*1 全銀システムは1,000超の金融機関が参加しており、1営業日当たりの取引件数は2022年実績で約806万件、約14兆円。*2 今回のシステム障害により金融機関間で行われる送金に遅延や取

    全国銀行データ通信システムのシステム障害についてまとめてみた - piyolog
  • 【1月23日追記】12月23日、24日に発生しました障害に関するご報告

    いつもSkebをご利用いただき、誠にありがとうございます。 12月23日12時よりskeb.jpにアクセスできない大規模な障害が発生しておりましたが、12月24日07時に復旧いたしました。 12月23日、および12月24日が納品期限のリクエストは納品期限を12月25日23時59分までに延長させていただきます。 みなさまには多大なご迷惑をお掛けしましたことをお詫び申し上げます。 障害につきまして詳細をご報告させていただきます。 概要日時: 12月23日12時22分〜12月24日7時00分 (JST) ダウンタイム: 18時間38分 内容: skeb.jpにアクセスできない不具合 原因: SkebはすべてのサーバとシステムをHerokuに設置していたが、障害発生時刻より同サービスのアカウントが理由の通知なく利用できなくなった。 解決: Herokuの一切の利用を中止し、すべてのサーバとシステ

  • KDDI通信障害 設備の一部に不具合 復旧メド立たず 影響広がる | NHK

    auなどを展開する携帯大手のKDDIで、2日未明から大規模な通信障害が起き、全国で携帯電話の通話やデータ通信がつながりにくい状況が続いています。設備の一部に不具合が起きたことによるもので復旧のメドは立っておらず、影響は個人の利用者だけでなく事業者のサービスにも広がっています。 KDDIによりますと、2日午前1時35分ごろから大規模な通信障害が起き、全国で▽auのほか、同じ回線を使っている▽UQモバイルと▽povoの通話やデータ通信がつながりにくい状況になっています。 3つのブランドの一般の利用者の契約数はことし3月末時点であわせておよそ3097万件で、このうち今回、どの程度影響が及んでいるかは分かっていません。 また、▽auの回線を利用している事業者のサービスにも影響が出ているとしています。 原因について会社では、音声通話に必要な機器に不具合が発生し、通話などが集中しないよう通信量を絞った

    KDDI通信障害 設備の一部に不具合 復旧メド立たず 影響広がる | NHK
  • Cloudflareが昨日(2022年6月21日)の障害原因はBGPの設定ミスと報告。東京データセンターを含む19の主要データセンターが一時オフラインに

    Cloudflareが昨日(2022年6月21日)の障害原因はBGPの設定ミスと報告。東京データセンターを含む19の主要データセンターが一時オフラインに CDNプロバイダーのCloudflareは、日時間の昨日(2022年6月21日)午後に発生したネットワーク障害についての報告を公開しました。 障害は日時間の午後3時半頃に顕在化し、国内ではDiscordPixiv、Nortionなどさまざまなサービスにおいて影響が報告されましたが、午後5時から6時頃にはおおむね復旧が見られたようです。 Cloudflareの報告によると障害はBGPの設定ミスが原因で、これにより東京データセンターを含む同社の主要な19のデータセンターで障害が発生したとのことです。 Today, June 21, 2022, Cloudflare suffered an outage that affected tra

    Cloudflareが昨日(2022年6月21日)の障害原因はBGPの設定ミスと報告。東京データセンターを含む19の主要データセンターが一時オフラインに
  • 一部のお客様へ影響しているアトラシアンサービスの停止について | Atlassian Japan 公式ブログ | アトラシアン株式会社

    ブログは、こちらに掲載されている英文ブログの意訳です。万が一内容に相違がある場合は、原文が優先されます。 2022年4月18日 23:57 UTC時点で、サービス停止の影響を受けたお客様サイトの復旧を完了しました。 2022年4月4日(月) PTに、アトラシアンクラウドをご利用の約400社のお客様が、アトラシアン製品全体を通してサービスの停止を経験されました。2022年4月18日現在、影響のあったお客様サイトの復旧を完了し、各サイトの窓口ご担当者宛てにご連絡申し上げました。 当社のサポートチームは現在、個々のお客様に合わせたサイト特有のニーズに対応しています。支援を必要とする事象のあるお客様は、当該サポートチケットへその旨ご返信ください。至急エンジニアリングチームより対応させていただきます。 今回のインシデントはサイバー攻撃や、システムの拡張に問題があったものではありません。また、一部の

    一部のお客様へ影響しているアトラシアンサービスの停止について | Atlassian Japan 公式ブログ | アトラシアン株式会社
  • みずほ銀行窓口業務ストップの真相、DC切り替えをためらい障害が長期化

    みずほ銀行で2021年8月20日、営業店の窓口業務が全面停止するトラブルが発生した。前日の19日午後8時53分ごろに営業店端末と勘定系システムをつなぐサブシステムで、データベース(DB)サーバーがディスク装置の故障をきっかけに停止したためだ。待機系DBサーバーへの切り替えも失敗、副データセンター(DC)に処理を切り替えた。副DCへの切り替えに着手するまで11時間超を要し、業務開始に間に合わなかった。 みずほ銀行で2021年8月20日、全463店舗で営業店端末や店頭のタブレット端末が使用不能になった。午前9時の開店から午前9時45分までは全ての店頭取引ができなくなり、その後も午前11時58分まで融資や外国為替(外為)の一部取引ができなくなった。営業店端末などと勘定系システム「MINORI」をつなぐサブシステム「業務チャネル統合基盤」が前日の8月19日午後8時53分ごろに停止したためだ。 業務

    みずほ銀行窓口業務ストップの真相、DC切り替えをためらい障害が長期化
  • Google、12月14日の約45分間ダウンの原因と対策を詳解

    Googleは12月18日(現地時間)、12月14日の約45分間にわたる多数のサービスダウンの原因と今後の対策について、ステータスダッシュボードで説明した。 この障害は、14日の午前3時46分(日時間では14日の午後8時46分)から47分間続き、Googleのログイン認証サービス「OAuth」を採用するGmailやWorkspaceなどの一連のサービスが影響を受けた。 大まかに要約すると、根的な原因は、10月にユーザーIDサービスを新しいクォータシステムに登録するための変更を行ったが、その際に古いクォータシステムの一部が残ってしまい、誤った報告があったことという。ユーザーIDサービスの使用量が誤って0と報告されたため、クォータ制限が続いて最終的に期限切れになり、自動クォータシステムがトリガーされてユーザーIDサービスのクォータが減少した。 意図しないクォータ変更を防止するための安全性

    Google、12月14日の約45分間ダウンの原因と対策を詳解
  • Microsoft 365の大規模障害、原因は未検証アップデートがデプロイシステムのバグにより通常のプロセスをバイパスして本番環境へ直接デプロイされたこと

    Microsoft 365の大規模障害、原因は未検証アップデートがデプロイシステムのバグにより通常のプロセスをバイパスして番環境へ直接デプロイされたこと マイクロソフトのサービス「Microsoft 365」で、日時間の9月29日午前6時半頃から約3時間ほど障害が発生し、全世界でOneDriveやOutlook、Teamsなどのサービスに接続しにくくなっていました。 We're investigating an issue affecting access to multiple Microsoft 365 services. We're working to identify the full impact and will provide more information shortly. — Microsoft 365 Status (@MSFT365Status) Septem

    Microsoft 365の大規模障害、原因は未検証アップデートがデプロイシステムのバグにより通常のプロセスをバイパスして本番環境へ直接デプロイされたこと
  • 自治体IaaSの障害、全面復旧めど立たず 発生から6日目、「計画の大幅見直しが必要」

    NTTデータ傘下の日電子計算が提供する自治体向けIaaS「Jip-Base」で12月4日から障害が発生し、9日現在もサービスの大半が使えない状態が続いている。同社は6日時点では9日の全面復旧を目指していたが、新たなトラブルが発生し「計画の大幅な見直しが必要」と判断した。 トラブルは4日午前11時ごろから発生。同サービスを利用している自治体で、税務処理や戸籍管理のシステムが使えない状態になった。 同社は当初、ストレージに付随するファームウェアの不具合が原因と説明していた。9日現在、この不具合が引き起こしたハードウェアの故障は解消したが、その後の動作確認で各種データへのアクセス処理が正しく動作しない事象が判明したという。

    自治体IaaSの障害、全面復旧めど立たず 発生から6日目、「計画の大幅見直しが必要」
  • 新たな不具合発覚で異例の6日目突入、50自治体システム障害の続報

    2019年12月4日に発生した50自治体のシステム障害は、発生から6日目になる2019年12月9日午前10時の時点でまだ全面復旧に至っていない。原因となった日電子計算のIaaS「Jip-Base」のシステム障害は2019年12月6日の時点で9日に復旧予定としていたが、新たな不具合が発覚して復旧できていないからだ。 その不具合について日電子計算は2019年12月9日朝に、「ストレージの故障は修復できたが、その後の動作確認でデータへのアクセス処理が正しく動作しない事象が判明し、現時点でも解消していない」とコメントした。復旧については、「当初計画の大幅な見直しが必要であると判断している」とし、見通しは立っていない状況だ。 影響を受けている自治体側も長期化するシステム障害に戸惑いを隠せない。大阪府和泉市ではバックアップ用システムとデータを使って応急的に一部のシステムは稼働しているが、「番シス

    新たな不具合発覚で異例の6日目突入、50自治体システム障害の続報
  • 8/23東京リージョン障害中の当ブログ稼働を紹介します | DevelopersIO

    発生原因 ap-northeast-1a(ID:apne1-az4) に設置されたELBのノードが、5XXのエラー応答を戻していました。 暫定対処 ELB(ALB) で利用していたAWS WAFの保護設定を一時的に解除、ELB_5XXエラーが抑制された事を確認しました。 対応経緯 14:20 チャットの通知より、DevloppersIOのブログ基盤から HTTP 5XX の発生している事を確認 14:30 ElasticBeanstalkのダッシュボードの「WARN」イベントより、HTTP 5xx の発生状況を確認 CloudWatchの ALB ダッシュボードより、HTTP 5XX の発生状況を確認 ALBのCloudWatchメトリックより、ELBに起因する「ELB_5XX」エラーである事と、 AZ別のメトリックより ap-northeast-1a(ID:apne1-az4)、アベイア

    8/23東京リージョン障害中の当ブログ稼働を紹介します | DevelopersIO
  • AWS、東京リージョン23日午後の大規模障害について詳細を報告。冷却システムにバグ、フェイルセーフに失敗、手動操作に切り替えるも反応せず

    AWS、東京リージョン23日午後の大規模障害について詳細を報告。冷却システムにバグ、フェイルセーフに失敗、手動操作に切り替えるも反応せず 報告によると直接の原因は東京リージョンのデータセンターで使用されている冷却制御システムにバグがあったこと。これにより、緊急時の手動操作にも冷却制御システムの一部が反応しないなどでサーバが過熱し、障害に至ったと説明されています。 8月23日午後に約6時間の障害。EC2だけでなくRDSも 報告によると、障害は日時間2019年8月23日金曜日の昼過ぎに発生。影響範囲は仮想マシンを提供するAmazon EC2とブロックストレージを提供するAmazon EBSのそれぞれ一部。以下、AWSの報告を引用します。 日時間 2019年8月23日 12:36 より、東京リージョン (AP-NORTHEAST-1) の単一のアベイラビリティゾーンで、オーバーヒートにより一

    AWS、東京リージョン23日午後の大規模障害について詳細を報告。冷却システムにバグ、フェイルセーフに失敗、手動操作に切り替えるも反応せず
  • Summary of the Amazon EC2 Issues in the Asia Pacific (Tokyo) Region (AP-NORTHEAST-1)

    2019年8月28日(日時間)更新: 最初の事象概要で言及した通り、今回のイベントは、東京リージョンの1つのアベイラビリティゾーン(AZ)の一部に影響を与えました。この影響は当該 AZ の Amazon EC2 および Amazon EBS のリソースに対するものですが、基盤としている EC2 インスタンスが影響を受けた場合には、当該 AZ の他のサービス(RDS、 Redshift、 ElastiCache および Workspaces 等)にも影響がありました。お客様と今回のイベントの調査をさらに進めたところ、 個別のケースのいくつかで、複数のアベイラビリティゾーンで稼働していたお客様のアプリケーションにも、予期せぬ影響(例えば、 Application Load Balancer を AWS Web Application Firewall やスティッキーセッションと組み合わせてご

    Summary of the Amazon EC2 Issues in the Asia Pacific (Tokyo) Region (AP-NORTHEAST-1)