概要 WordPressを運用しているサーバーでファイルをアップロードすると 「エラーが発生しました。アップロードしたファイルは php.ini で定義された upload_max_filesize を超過しています。」 とエラーが表示される場合は、PHPの設定とWEBサーバー(Nginx)の設定を見直す必要があります。 また、nginx側で「413 Request Entity Too Large 」と表示される場合も同様で、php.iniとnginxの設定を変更する必要があります php.ini の設定変更 php.iniで、アップロードできるファイル(upload_max_filesize)・POSTできるファイルサイズ(post_max_size)の最大値を変更する必要があるので下記のように変更します アップロードできる最大のファイルサイズ(100Mに設定) upload_max_
2024-11-14 comment 2024-10-07 FrontPage 2024-10-04 eoホームファイバー規制情報一覧 2022-03-02 dti_comment 2021-11-26 biglobe_comment 2021-10-29 interlink_comment 2021-03-26 BBexcite_comment 2021-01-31 nifty_comment 2020-12-19 インターリンク - interlink 帯域規制 2020-12-08 freebit_comment 加筆・修正した情報には根拠となる情報源を提示して下さい。 昨今、東西フレッツ環境(IPv4 PPPoE)において輻輳(速度低下)が多数報告されています。制約は生じますが混雑箇所のNTT設備を経由しないIPv6(IPoE)接続の利用もご検討ください。 P2P規制は有料VPNサ
仕事でとある製品のパフォーマンス試験をすることになりましたので、その関連です。 条件の一つにネットワークのスループット低下が及ぼす影響というのがあるのですが、検証環境だと十分に負荷をかけることができないため"tc"コマンドで制限をしようということになりました。 しかし、"tc"はアウトバウンドの帯域制御は比較的容易なのですが、インバウンドにはちょっと工夫が要るようです。 そんな感じで、ネットの情報を頼りに試験で使いやすいように適当なスクリプトを作ってみました。 とりあえず条件としては制限の有効/無効を簡単にできること、引数で制限値と対象のインターフェースを変更できることです。 今回の試験用なのであまり使い回すことは考えていないですが、その気になったらしっかり作り直すかもしれません。 #!/bin/bash SWITCH=$1 # "on" or "off" DEVICE=$2 # "eth
こんにちは。Oracle挑戦中の松田です。 今までまったく触ったことのなかったOracleに初めて触れ、頭が混乱中なので備忘録がわりにブログに書き留めておきます。 特に悩んだのがLIMIT関連。 何故かOracleってLIMITが無いんですね。LIMITに慣れていると、なぜ存在していないのかが不思議でしょうがありません。ほんとどうしてなんでしょ? ・memberテーブルから LIMIT 10 で結果取得 SELECT * FROM member WHERE ROWNUM <= 10 ROWNUM ・・・ 抽出した結果セットに勝手に付けられるレコード番号 基本はこれを使って結果セットの切り分けをするらしい。 ・memberテーブルから LIMIT 10, OFFSET 5 で結果取得 SELECT * FROM ( SELECT id, category, age, ROWNUM line
I am trying to do something that requires a large number of file descriptors sudo ulimit -n 12288 is as high as Snow Leopard wants to go; beyond this results in /usr/bin/ulimit: line 4: ulimit: open files: cannot modify limit: Invalid argument. I want to raise the number much higher, say 100000. Is it possible?
概要 SierraのPCに変更した際、.bash_profileを過去のPCから引き継いだところulimitのところで設定が変わっていたのでメモ。 環境 macOS Sierra(10.12) ~ Mojave(10.14) デフォルトの確認 $ ulimit -a core file size (blocks, -c) 0 data seg size (kbytes, -d) unlimited file size (blocks, -f) unlimited max locked memory (kbytes, -l) unlimited max memory size (kbytes, -m) unlimited open files (-n) 256 pipe size (512 bytes, -p) 1 stack size (kbytes, -s) 8192 cpu time
昨年の初頭から作成後のEBSのボリュームタイプの変更とサイズの拡張が可能になりましたが、このアップデートにボリュームサイズの縮小は含まれていません。 ベルリンオフィスでブロックチェーン関連のサーバーを立てると、立ち上げのスナップショット同期時に確保していたEBSが運用時に無駄になるケースが多いため、容量の縮小方法を検討しました。 やってみた 元のEBSボリューム26GBを10GBに減らします。いくつかやり方がありますが、今回はAMIを経由せず、かつ元のEC2インスタンス以外に作業用インスタンスを作成しないで行います。 まず目的のEC2を停止してEBSをデタッチ、そのスナップショットを作成します。なおDockerがデタッチドモードで動いている場合はdownで落としておいたほうが無難です。 同じアベイラビリティゾーンに縮小後のサイズに仕立てたカラのボリューム(new)と、スナップショットから起
「--memory」(もしくは「-m」)オプションでは、そのコンテナが利用できる最大メモリ量を指定できる。指定の際は「k」や「m」、「g」といった単位および「b」(バイト)も利用可能だ。たとえばコンテナが利用できるメモリ量を最大256MBに制限するには、以下のオプションを指定してコンテナを起動すれば良い。 --memory=256mb なお、実際の制限値はOSのページサイズの倍数に丸められるため、指定した値がそのまま制限値になるわけでは無い。たとえば上記のように「--memory=256mb」を指定したコンテナについて「docker stats」コマンドでリソース使用状況を確認すると、メモリのリミット(MEM LIMIT)が「268.4MB」となっていることが分かる。 # docker stats CONTAINER CPU % MEM USAGE / LIMIT MEM % NET I/
Like many other messaging systems, Kafka has put limit on the maximum message size. User will fail to produce a message if it is too large. This limit makes a lot of sense and people usually send to Kafka a reference link which refers to a large message stored somewhere else. However, in some scenarios, it would be good to be able to send messages through Kafka without external storage. At LinkedI
Linux サーバでの「Too many open files」エラー対策について調べたのでまとめてみました。 確認した OS は CentOS 5.9 と CentOS 6.3 です。 「Too many open files」は Linux でプロセスが開けるファイルディスクリプタの上限に達してしまうと発生するエラーです。 「ファイルディスクリプタ」という名前ですが、 Linux ではソケットもファイルディスクリプタなので、ファイルを開いた場合だけでなく、ソケットを使って通信を行う場合にもファイルディスクリプタが使用されます。 そのため、Apache や Tomcat などで高負荷なサイトを運用している場合などには、比較的遭遇する確率の高いエラーではないでしょうか。 このエラーを回避するため、プロセスがオープンできるファイルディスクリプタの上限を変更します。 まずは以下のコマンドを実行
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く