inai17ibarのブックマーク (666)

  • これから iPhone アプリ開発に携わるのであれば覚えておきたい最低限のこと | DevelopersIO

    iPhone アプリを作ってきて 私が iPhone アプリ開発を始めてからおよそ4年が経過しました。 その間に得た知見の一部を紹介致します。 この記事の対象読者は以下の方を想定しています。 これから iOS プログラミングを始めたい方 今まで格的に iPhone アプリを作ってはいないけれども、興味がある方 開発の事はよくわからないけれども、アプリのプロモーションなどを担当している方 これから iPhone アプリ開発に携わるのであれば覚えておきたいこと 言語について モダンな書き方をする → Objective-C でもジェネリクスなどを積極的に使う 冗長な書き方をしない → [[Class alloc] init] は [Class new] と同等 SwiftGitHub の Release や Issue などを追う → オープンソースの活用 豊富なOSSを活用する →

    これから iPhone アプリ開発に携わるのであれば覚えておきたい最低限のこと | DevelopersIO
  • 最適化超入門

    2. 過去の発表 2014年11月29日 TokyoWebMining #40 2 専門と一切関係ナシ 2chテキストマイニングとまとめサイトの自動生成 セクシー女優で学ぶ画像分類入門 3. 所属 自己紹介 2014年11月29日 TokyoWebMining #40 3 Twitter ID tkm2261 専門 経営工学/最適化 某データ分析会社 業務 分析何でも屋さん 機械学習との出会い 当時の研究が実用性 皆無 精神の逃げ道として 機械学習 を開始 研究が 詰んで、 趣味職に 言語、画像と幅広く 遊んでます

    最適化超入門
  • 半教師あり学習とは結局のところ何なのか? - yasuhisa's blog

    半教師あり学習の質はどこにあるのか? 現在の半教師あり学習の悪い(?)ところ その他 今週ゼミで半教師あり学習のイントロダクション的なものをやる予定なので資料を作っている。 Self Training Generative Models S3VMs Graph-Based Algorithms Multiview Algorithms などなどの手法を簡単に紹介する予定(Blogにもあげるかもしれない)。で、資料を作っていて、「半教師あり学習とは、つまりラベルありデータだけではdata sparsenessに負けてしまうところをラベルなしデータによって補う方法ではないか」というところに行きついた気がする。 半教師あり学習 from syou6162 半教師あり学習の質はどこにあるのか?Semi-Supervised Learning Tutorialの資料からいくつか例で見てみよう。テ

    半教師あり学習とは結局のところ何なのか? - yasuhisa's blog
  • https://jp.techcrunch.com/2015/04/04/20150403dropbox-is-testing-an-online-note-taking-service-with-project-composer/

    https://jp.techcrunch.com/2015/04/04/20150403dropbox-is-testing-an-online-note-taking-service-with-project-composer/
  • pandas でメモリに乗らない 大容量ファイルを上手に扱う - StatsFragments

    概要 分析のためにデータ集めしていると、たまに マジか!? と思うサイズの CSV に出くわすことがある。なぜこんなに育つまで放っておいたのか、、、? このエントリでは普通には開けないサイズの CSV を pandas を使ってうまいこと処理する方法をまとめたい。 サンプルデータ たまには実データ使おう、ということで WorldBankから GDPデータを落とす。以下のページ右上の "DOWNLOAD DATA" ボタンで CSV を選択し、ローカルに zip を保存する。解凍した "ny.gdp.mktp.cd_Indicator_en_csv_v2.csv" ファイルをサンプルとして使う。 http://data.worldbank.org/indicator/NY.GDP.MKTP.CD?page=1 補足 pandas の Remote Data Access で WorldBan

    pandas でメモリに乗らない 大容量ファイルを上手に扱う - StatsFragments
  • Pythonの数値計算ライブラリ NumPy入門

    Scientific Computing Tools For Python — Numpy NumPy は Pythonプログラミング言語の拡張モジュールであり、大規模な多次元配列や行列のサポート、これらを操作するための大規模な高水準の数学関数ライブラリを提供する。(via Wikipedia) これまで知識があいまいだったNumPyについて、もう一度おさらいしたいと思います。NumPyはSciPyと併せて科学技術計算でよく利用されています。また、高速に行列演算ができるのでOpenCV(コンピュータビジョンライブラリ)でもNumPyを利用したPythonインタフェースが提供されるようになりました。 OpenCVPythonバインディングについては去年のエントリーでも取り上げていますので参考までに。 * さくらVPSOpenCVをインストールしてPythonから使う [2017/04/2

  • pixivの小説を機械学習で男性向けと女性向けに分類する - 唯物是真 @Scaled_Wurm

    最近Web小説が人気でいろいろ書籍化されたりアニメ化したりしています 今期のアニメでは『ダンジョンに出会いを求めるのは間違っているだろうか』が放送されていておすすめです(アニメに合わせてKindle版の1,2巻が値下げされています) ダンジョンに出会いを求めるのは間違っているだろうか (GA文庫) 作者: 大森藤ノ,ヤスダスズヒト出版社/メーカー: SBクリエイティブ発売日: 2013/01/16メディア: 文庫購入: 1人 クリック: 50回この商品を含むブログ (32件) を見るダンジョンに出会いを求めるのは間違っているだろうか外伝 ソード・オラトリア (GA文庫) 作者: 大森藤ノ,はいむらきよたか,ヤスダスズヒト出版社/メーカー: SBクリエイティブ発売日: 2014/01/15メディア: 文庫この商品を含むブログ (5件) を見る前に小説家になろうのデータでいくつか記事を書きまし

    pixivの小説を機械学習で男性向けと女性向けに分類する - 唯物是真 @Scaled_Wurm
  • 特徴量(素性)を作るときのメモ + scikit-learnにちょっと触る - 唯物是真 @Scaled_Wurm

    機械学習のデータとして特徴量を作るときの注意点や悩むことなどをメモっておきました。 間違いなどが含まれているかもしれません。 基的な内容ですので調べればもっと適切なやり方があると思います。 カテゴリカル・データ カテゴリカル・データというのは、いくつかの限られた種類の値をとり、その大小関係に意味が無いものです。 質的データとか名義尺度とか呼ばれることもあります。 例えば都道府県のデータを考えた時に、北海道と沖縄は違う値ですが、その大小関係は定義できません。 (もちろん北海道と沖縄に面積的な大小関係などはありますが、欲しい情報ではないとします) カテゴリカル・データを特徴量にするときにはカテゴリーごとにその特徴であるかどうかの二値にするとよいと言われています 以下に例を示します。それぞれの列がデータごとの特徴量を表していると考えてください 北海道:1 沖縄:0 東京:0 北海道:0 沖縄:

    特徴量(素性)を作るときのメモ + scikit-learnにちょっと触る - 唯物是真 @Scaled_Wurm
  • 英単語を画像イメージで暗記できる英語辞書サービスを作って公開しました

    ではエントリー題へ。長くなったので目次。 ・この辞書サービスでできること ・なぜ今さら英語の辞書サービスを作ったか? ・サービスとしての今後の課題 ・動作テストにご協力頂いた皆様に感謝! ・使用している技術・ツール ・個人での開発スタイル ・タスクフローとタスク管理 ・新規サービスの設計で最も注意した点 ・Rails 開発で大変だった点 ・作業で手が止まった時の脱出法 ・開発における今後の課題 この辞書サービスでできること 一言で言うと、単語の意味を関連する画像とともに調べられる辞書サービスです。 百聞は一見にしかず…ということで以下分かりやすい例ですが、’dredge‘(浚渫機)という英単語を調べたページのスクリーンショットです。 単語の意味の文章による説明と関連画像を共に表示することで、単語の意味をイメージしやすく、記憶に定着しやすくなることを目指しています。 英単語を画像イメージで

    英単語を画像イメージで暗記できる英語辞書サービスを作って公開しました
  • Mechanize::Form - Ruby Mechanize wiki (ja)

    Ruby Mechanize wiki (ja) Ruby の Mechanize の wiki のよてい トップページページ一覧メンバー編集 Mechanize::Form 最終更新: kitamomonga 2010年10月18日(月) 12:59:42履歴 Tweet Mechanize::Form HTML上にあるフォーム(<form>…</form>)ひとつを表すクラスです。 フォームコントロールへのアクセス このクラスが提供するメソッドで各種フォームコントロール(入力欄、チェックボックス等)のオブジェクトを探す 探した入力欄などのオブジェクトのvalueを直接入力や項目選択で適当に変更する このクラスが提供するメソッドで、このクラスが表現するURLへフォームデータを送信 という流れになります。コントロール名HTML探すメソッド1行入力欄<input type="text">#f

    Mechanize::Form - Ruby Mechanize wiki (ja)
  • なぜ Java でジェネリックスが必要なのか? - Java 入門

    なぜジェネリックスなのか? ジェネリックスはどのような問題を解決するものなのでしょうか? それを理解するために、次のような箱 (Box) クラスを考えましょう。 public class Box { Object o; public Box(Object o) { this.o = o; } public Object get() { return o; } } これは単なる箱 (Box) を表すクラスです。コンストラクタで何かオブジェクトを受け取ったら、それを内部的に Object 型の o に保持しておき、get メソッドが呼ばれたときにそれを返すだけです。 これを利用するプログラムを考えましょう。 Box b = new Box(123); Integer i = (Integer) b.get(); System.out.println(i); // 123 Box のコンストラク

    なぜ Java でジェネリックスが必要なのか? - Java 入門
  • 「ユニバーサル検索」の意味や使い方 わかりやすく解説 Weblio辞書

    読み方:ユニバーサルけんさく 別名:ユニバーサルサーチ,ブレンド検索 【英】universal search ユニバーサル検索とは、検索エンジンのWeb検索結果において、複数の異なる種類のコンテンツが混在して表示されること、または、そうした機能のことである。 Web検索が検索対象とする情報の区分としては、Webページ(テキスト)の他にも、画像や動画、地図、ニュース記事、関連書籍、関連商品、などがある。Googleではブログ記事、学術論文、モバイルアプリなどの区分も用意されている。ユニバーサル検索ではこうした様々な情報を検索結果として区別せず、同列に扱う。 コンテンツの種類を区分して、それぞれ個別に参照できる方式を、ユニバーサル検索に対してバーティカル検索と呼ぶ場合がある。 参照リンク Google Begins Move to Universal Search - (News from G

  • NEXX、ユーザーのくせ字も学習するAI内蔵の手書き専用タブレット

    今回発売する製品は、Windows専用の「Handwriting Tablet–EZ Handwriter」(NTBL-610)、卓上型でWindows / Mac両対応の「Handwriting Tablet–YoYo」(NTBL-620)と「Handwriting Tablet–Lohas」(NTBL-630)の3種類。 いずれも、日・英・中(繁体・簡体)・韓の5カ国語の認識が可能。具体的には日語の漢字、カタカナ・ひらがな・記号と数字、英語アルファベット、中国語23,000の繁体・簡体文字、4,941の特別香港文字、韓国語の認識が行え、Unicodeもサポートする。 手書き文字は、草書体・行書体など崩した文字や自己流に崩した文字、アルファベットの筆記体も認識する。入力後はパッド上に認識結果と、5つの候補文字が表示され、認識結果が間違っていた場合、候補文字の中から正しい候補を選択できる

    NEXX、ユーザーのくせ字も学習するAI内蔵の手書き専用タブレット
  • Spring MVCでHelloWorld Maven2からEclipse編 - ビー鉄のブログ

    先日よりはじめて触ったSpingMVC。 取り急ぎ、環境構築をしてみます。 初めてなので、WEBのチュートリアルみたいなのを見ながら始めました。 今回の目標はMaven2でひな形を作って、それをEclipseで読み込んで見るところまで行いたいと思います。 そんなの朝飯前だぜ!という人は、読み飛ばしてください。 では、まずMaven2でプロジェクトを作るところから開始します。 なんでかっていうとAntばかりつかっていて、あんまりMaven使ってなかったからなんです・・・。 最初の一歩です。 Maven2でアプリケーションを作成 [bash] mvn archetype:create -DarchetypeArtifactId=maven-archetype-webapp -DgroupId=com.beeete2.springmvc.testapp -DartifactId=testapp

    Spring MVCでHelloWorld Maven2からEclipse編 - ビー鉄のブログ
  • Javaで使える、HTML5パーサ - CLOVER🍀

    ちょっと大量のHTMLファイルをチェックする作業があって、grep/Perl One Linerで頑張るのも厳しいよなぁと思い、HTMLファイルをJavaでパースしてどうにかしようと思い立ちました、今日。 で、JavaHTMLパーサといえば、個人的にはパッと思い浮かぶのがNekoHTML。 CyberNeko HTML Parser http://nekohtml.sourceforge.net/ が、いかんせんこれは古い。HTML5にも対応していませんし。 よって、他のパーサを探してみました。2つほど見つかったので、ご紹介します。 HTMLをパースするので、以下のような閉じタグがないHTMLもパースできなければなりません。 index.html <!DOCTYPE html> <html> <head> <title>タイトル</title> </head> <body> <div i

    Javaで使える、HTML5パーサ - CLOVER🍀
  • レビューで鍛えるJavaコーディング力 その7(文字コードチェック) - 谷本 心 in せろ部屋

    今回は、文字コードのチェック(エンコーディングチェック)を行う処理に関する問題です。 問題 以下のコードの問題を指摘し、修正してください。 ただし、問題は複数あることもあれば、全くないこともあります。 public class StringValidator { private static boolean checkCharacterCode(String str, String encoding) { if (str == null) { return true; } try { byte[] bytes = str.getBytes(encoding); return str.equals(new String(bytes, encoding)); } catch (UnsupportedEncodingException ex) { throw new RuntimeExcepti

    レビューで鍛えるJavaコーディング力 その7(文字コードチェック) - 谷本 心 in せろ部屋
  • 5分でWebスクレイピングをする - YAMAGUCHI::weblog

    はじめに あけましておめでとうございます。今年もPython界の江古田ちゃんとして頑張っていく所存です。さて id:nishiohirokazu が5分でPythonは便利だと思える記事を元旦から書いていました。 「ほえー、さすが西尾さんや」って思ってたら、西尾さんが「おい山口、5分でPython便利だなーって思える記事書けや」っていう無言の圧力をかけてきたので*1 *2なんとなく書きました。 「5分で」っていうのが読者が読む時間なのか、筆者が書く時間なのかがわからなかったので前者ということにしました。5分で記事とコード両方書くとか無理や。 こんなことないですか 「Webでスクレイピングしたいよー、てへへ。だけど文字コードとかがページごとにバラバラでマジしんどいっす。しかもタグ抜き出すのとかめちゃめんどいっす><」ってことはあったりしませんか? リンクのタイトルとかも綺麗に抜き出したいなー

    5分でWebスクレイピングをする - YAMAGUCHI::weblog
  • jsoupでHTMLをパースする - するめとめがね

    オヒサシブリデース。 ついにはてなブログに移行しました。インポート楽ちんでよいですね。 ここのところあんまり新しいことしてなかったので書くことなかったんですが、 久々に触ったことなかったライブラリに触ったので覚書までに。 HTMLをパースする案件がありまして、以下のパーサを触ったんですが、 割と精度も使い勝手もパフォーマンスもよかったjsoupを紹介してみます。 jsoup jericho HtmlCleaner Validator.nu HTMLEditorKit TagSoup HTML Parser NekoHtml JTidy 準備 mavenでビルドするのを想定して、まずはpom.xmlに以下を追記します。 <dependency> <groupId>org.jsoup</groupId> <artifactId>jsoup</artifactId> <version>1.7

    jsoupでHTMLをパースする - するめとめがね
  • [Python]urllib2でUser-Agentを変更する

    先日、Twitterbotが動いていなかったのでログを調べたら、クロール先サイトに403Forbiddenを返されるようになっていました。Pythonのurllib2.urlopenのデフォルトのUser-Agentの値は"Python-urllib/(Pythonのバージョン)"のようで、これが駄目になったぽい。なのでUser-Agentを変更することで403を回避するようにしました。 コードは例えばこんな感じ import urllib2 from BeautifulSoup import BeautifulSoup URL = 'http://example.com' UERAGENT = 'Mozilla/5.0' req = urllib2.Request(URL) req.add_header("User-agent", USERAGENT) soup = BeautifulS

    [Python]urllib2でUser-Agentを変更する
  • 落合監督 第一印象は「ああ、こいつら練習してないんだ」 - スポニチ Sponichi Annex 野球

    落合監督 第一印象は「ああ、こいつら練習してないんだ」

    落合監督 第一印象は「ああ、こいつら練習してないんだ」 - スポニチ Sponichi Annex 野球