「TensorFlow」を含む日記 RSS

はてなキーワード: TensorFlowとは

2025-11-06

anond:20251106112300

あのな。お前のそのコメント、まるで知識自己放尿だ。

便所の外で勢いよく撒き散らして悦に入ってるが、便器に一滴も入ってねぇ。

OSSを「独自規格でもできるし、思想に合わせて分岐していく」とか言ってる時点で、根本を履き違えてる。

OSSコード共有による知の集約であり、思想分岐じゃねぇ。

分岐副作用であって、目的じゃない。そこを混同してるお前の理解は、まさに知的な放尿プレイだ。

それにな、「標準化関係ない」とか言ってるが、OSS標準化プロセスをどれだけ実質的駆動してきたか、知らんのか?

LinuxカーネルPostgreSQLTensorFlow、全部OSS事実上の標準を形成してんだよ。

標準はISOの紙切れじゃなく、実際に世界で動いてるコードの方に宿る。

それが現代実効標準だ。お前はまだ机上の規格書を神棚に祀って拝んでる昭和エンジニアか。

本質を見誤ってる時点で、お前の主張は思想、誤解、独り善がりのトリプル放尿だ。

2025-07-04

DeepLearningモデル変換ツール全部盛り巨大Docker環境の構築

DeepLearningモデル変換ツール全部盛り巨大Docker環境の構築

Introduction

めんどくさい。この世のすべての環境構築がめんどくさい。依存関係破壊祭りでツラい。したがって、Github Actions 上でモデル変換にまつわる環境を全部取り込んで docker build して超巨大全部盛りDLモデル変換環境を構築した。足りない周辺のツール各自追加インストールGUI や iGPU/dGPUホスト接続された USB機器コンテナからアクセスできるため実行環境としてもそのまま使える。ただし、とにかくImageデカイ & セキュリティガバガバGitHub Actions のコンテナビルドの容量制限に引っかかることを回避するためのトリックを仕込んである

2. Environment

Python 3.6+

TensorFlow v2.6.0+

PyTorch v1.10.0+

TorchVision

TorchAudio

OpenVINO 2021.4.582+

TensorRT 8.2+

pycuda 2021.1

tensorflowjs

coremltools

onnx

onnxruntime

onnx_graphsurgeon

onnx-simplifier

onnxconverter-common

onnx-tensorrt

onnx2json

json2onnx

tf2onnx

torch2trt

onnx-tf

tensorflow-datasets

tf_slim

edgetpu_compiler

tflite2tensorflow

openvino2tensorflow

gdown

pandas

matplotlib

Intel-Media-SDK

Intel iHD GPU (iGPU) support

OpenCL

Docker

CUDA 11.4

https://www.imdb.com/de/list/ls599665763/

https://www.imdb.com/de/list/ls599665763/copy/

https://www.imdb.com/pt/list/ls599665659/

ONNX -> TFLite, TensorFlow, Keras, TFJS, CoreML 変換

ONNX -> TFLite, TensorFlow, Keras, TFJS, CoreML 変換

自作ツール onnx2tf

実装している機能が多すぎるので、この記事表現していない変換オプションはREADMEを参照。TransformerやSTTやTTSやその他もろもろの一発変換に対応したつもり。onnx-tensorflow より推論効率が高いモデルを生成できる。また、onnx-tensorflowよりも対応しているオペレーションの種類が多い。

コントリビューター

コード量(code = 行)

cloc .

419 text files.

414 unique files.

174 files ignored.

----------------------------------------

Language files blank comment code

----------------------------------------

Python 300 4820 6637 37182

JSON 27 109 0 3107

Markdown 5 343 0 2061

YAML 7 42 79 586

Dockerfile 1 6 3 38

----------------------------------------

SUM: 340 5320 6719 42974

----------------------------------------

2. 使用方法

onnx==1.13.1

onnxruntime==1.13.1

onnx-simplifier==0.4.17

onnx_graphsurgeon

simple_onnx_processing_tools

tensorflow==2.13.0rc0

2-1. インストールサンプルモデルダウンロード

docker

docker run --rm -it \

  • v `pwd`:/workdir \
  • w /workdir \

ghcr.io/pinto0309/onnx2tf:latest

pip

pip install onnx2tf -U

モデル

wget https://github.com/PINTO0309/onnx2tf/releases/download/0.0.2/resnet18-v1-7.onnx

2-2. 基本の「き」

TFLite を出力。

onnx2tf -i resnet18-v1-7.onnx

2-3. 基本の「ほ」

TFLite変換 + 完全体の saved_model を出力。

onnx2tf -i resnet18-v1-7.onnx -osd

2-4. 基本の「ん」

TFLite変換 + 全OPの精度チェック。

onnx2tf -i resnet18-v1-7.onnx -cotof

2-5. Keras

.h5 はイロイロと問題があるので、現状最新のフォーマット keras_v3 フォーマットで出力。

onnx2tf -i resnet18-v1-7.onnx -okv3

.h5 を生成するとき

https://www.imdb.com/es/list/ls599679681/

https://www.imdb.com/es/list/ls599679681/copy/

onnx2tf -i resnet18-v1-7.onnx -oh5

2-6. TFLite の入出力名を魔改造

# Custom flatc binary for Ubuntu 20.04+

# https://github.com/PINTO0309/onnx2tf/issues/196

wget https://github.com/PINTO0309/onnx2tf/releases/download/1.7.3/flatc.tar.gz \

&& tar -zxvf flatc.tar.gz \

&& sudo chmod +x flatc \

&& sudo mv flatc /usr/bin/

# Custom flatc binary for Windows

# Set the environment variable paths appropriately on your own.

# https://github.com/PINTO0309/onnx2tf/issues/196

https://github.com/PINTO0309/onnx2tf/releases/download/1.7.3/flatc.exe

onnx2tf -i resnet18-v1-7.onnx -coion

https://www.imdb.com/es/list/ls599679368/

https://www.imdb.com/es/list/ls599679368/copy/

モデル変換 → テスト推論一括実行コード

モデル変換 → テスト推論一括実行コード

test.py

#! /usr/bin/env python

import torch

import torchvision

weights = torchvision.models.MobileNet_V3_Large_Weights.DEFAULT

model = torchvision.models.mobilenet_v3_large(weights=weights)

model.eval()

onnx_file = f'mobilenetv3_large_pytorch.onnx'

SIZE = 128

x = torch.randn((1, 3, SIZE, SIZE))

torch.onnx.export(

model,

args=(x),

f=onnx_file,

opset_version=11,

input_names=[

'input',

],

output_names=[

'output',

],

)

import onnx2tf

onnx2tf.convert(

input_onnx_file_path=onnx_file,

output_folder_path='saved_model',

copy_onnx_input_output_names_to_tflite=True,

)

import time

import numpy as np

import tensorflow as tf

interpreter = tf.lite.Interpreter(

model_path="saved_model/mobilenetv3_large_pytorch_float32.tflite"

)

tf_lite_model = interpreter.get_signature_runner()

time_total = 0.0

kaisu = 10

for i in range(kaisu):

inputs = {

'input': np.random.randn(1,SIZE,SIZE,3).astype(np.float32),

}

start_time = time.time()

tf_lite_output = tf_lite_model(**inputs)

elapsed_time = time.time() - start_time

time_total += elapsed_time

print("[TFLite] Model Predictions.shape:", tf_lite_output['output'].shape)

print("[TFLite] AVG elapsed time:", time_total / kaisu)

https://github.com/aankhon-ki-gustaakhiyan-firmytt-hqq

https://github.com/3-bhk-firmytt-hqq

TorchVision (MobileNetV3 Large) -> ONNX -> TFLite (シグネチ

TorchVision (MobileNetV3 Large) -> ONNX -> TFLite (シグネチ

環境

Intel Corei9 Gen.10

Ubuntu 22.04

TorchVision

ONNX

TensorFlow

パッケージインストール

sudo apt-get update \

&& sudo apt-get install -y flatbuffers-compiler

https://github.com/saiyaara-firmytt-hqq

pip install -U onnx==1.14.0 \

&& python -m pip install onnx_graphsurgeon \

--index-url https://pypi.ngc.nvidia.com \

&& pip install -U onnx-graphsurgeon \

&& pip install -U onnxruntime==1.15.1 \

&& pip install -U onnxsim==0.4.33 \

&& pip install -U simple_onnx_processing_tools \

&& pip install -U onnx2tf \

&& pip install -U h5py==3.7.0 \

&& pip install -U psutil==5.9.5 \

&& pip install -U tensorflow==2.13.0 \

&& pip install torch torchvision torchaudio \

--index-url https://download.pytorch.org/whl/cpu

https://github.com/ph-m-dien-anh-ut-lan-vitesu-moi

2025-01-22

anond:20250122140407

俺が使ったことのあるフレームワークはflask, django, tensorflow, sklearnあたり

その上で言うけど、「このフレームワーク使いましたー、ぴろろーん」でっていう意味ないでしょ「俺は歯ブラシを使う」みたいなことを言っても

2024-10-12

anond:20241012162845

Geminiさんに聞いてみた。冗長ー!


Geminiです。クラウドではなくローカルでLLMを遊びたいとのこと、素晴らしいですね!ローカル環境でLLMを動かすには、高性能なPC必要になります

ローカルでLLMを動かすためのPC、どこで買えるの?

残念ながら、特定の「LLM専用」と銘打ったブランドPC販売しているショップは、まだ一般的ではありません。しかし、LLMを動かすために必要スペックを持ったPCは、多くのPCメーカーショップで購入可能です。

LLMを動かすために必要PCスペック

LLMをスムーズに動かすためには、以下のスペックが求められます

PCの選び方のポイント

PCを購入する際の注意点

PCの購入先

LLMに特化したPCの選び方について、もっと詳しく知りたい場合は、以下の情報が役立つかもしれません。

自作PCに挑戦する

もし、ある程度の知識時間があれば、自作PCに挑戦してみるのもおすすめです。自作PCであれば、自分の好きなパーツを選んで、自分だけのオリジナルPCを組み立てることができます

まとめ

ローカルでLLMを動かすためのPC選びは、予算用途に合わせて慎重に行う必要があります。まずは、自分がどのような用途でLLMを使いたいのかを明確にし、それに合ったスペックPCを選びましょう。

その他

GPUクラウドサービス: ローカル環境を用意するのが難しい場合は、GPUクラウドサービスを利用するのも一つの手です。

LLMのフレームワーク: TensorFlowやPyTorchなどの深層学習フレームワークを使いこなせる必要があります

LLMの世界は日々進化しています。ぜひ、自分に合った環境でLLMを楽しんでください。

何か他に聞きたいことがあれば、お気軽にご質問ください。

2024-05-29

anond:20240529163337

はい、Kaggleのようなブラックボックスリーダーボード評価する現場存在します。

## 機械学習モデル評価方法

機械学習モデル評価には、一般的に以下の2つの方法があります

1. **ホールドアウト評価**: 学習データを訓練データテストデータに分割し、テストデータモデル評価する方法。[1]

2. **ブラックボックス評価**: 評価用のデータセットが公開されず、サーバーモデルを提出して評価される方法。Kaggleのコンペティションがこの方式。[1][2]

## ブラックボックス評価の利点

ブラックボックス評価には以下のような利点があります

## ブラックボックス評価現場

まり、Kaggleのようなブラックボックス評価は、機械学習の様々な現場採用されている評価方式の1つであり、特に運用に近い評価が求められる場合有効手段となっています。[1][2][3]

Citations:

[1] https://qiita.com/Shun_PI/items/896d05ed9689f4b24347

[2] https://www.kikagaku.co.jp/kikagaku-blog/kaggle-competition/

[3] https://www.kikagaku.co.jp/kikagaku-blog/signate-competition/

[4] https://www.topgate.co.jp/blog/google-service/8707

[5] https://www.jst.go.jp/crds/pdf/2023/RR/CRDS-FY2023-RR-02.pdf

2024-03-22

anond:20240321185747

ハードウェアソフトウェアの合わせ技だよ

HPC用途のためにCUDAを早い段階で整備していて、

PyTorchやTensorFlowからの利用で2010年代中盤からCNN需要一人勝ち

ニューラルネットワーク学習GPUは切っても切り離せない関係になった

その時点で勝負あり

2023-07-31

anond:20230731104947

最近最前線から離れててあんまり追えてないけど、現役のとき2008年くらいか10年くらいの間で、仕事のやり方や設計の考え方が大きく変わったIT技術要素で、いまぱっと思い浮かぶのはこんな感じかな。

分野にもよるし、調査して試作した結果自分業務には採用しなかった技術とかもある。流行ると思って使えるようになったけど流行らなかった技術を入れるとたぶんもっとある。

あと、新機種が出てOSが新しくなったり、ミドルウェアの新バージョン対応テスト手法進化もけっこうカロリー高いけどここには書いてない。

自分フロントエンド専門でReactしかやらない」みたいに分野を絞れば大分減るけど、その技術が何年持つかわからいか普通リスクヘッジのために他の技術も齧らざるを得ないし、バックエンドとかの人と議論するのに結局他分野の知識もそれなりに必要

ソーシャルコーディング(GitHub)

スマホアプリ(iOS, Android)

NoSQL(memcached, Redis, Cassandra)

暗号通貨

クラウドアーキテクチャ、XaaS(AWS, Google Cloud, MicrosoftAzure)

CI/CD(Travis CI, CircleCI, Jenkins)

トランスパイラ(Browserify, webpack, CoffeeScript, TypeScript)

システム(Rust, TypeScript, Haskell)

テスト自動化(xUnitSelenium)

クリーンアーキテクチャ

コンテナDocker

オーケストレーション(Ansible, Kubernetes, Terraform)

機械学習(Python, MATLAB, 線形代数数学知識)

HTML5(WebGL, WebAudio他)

SPA(React, AngularJS, Ember.js, Vue.js)

マイクロサービスアーキテクチャ

3Dゲームエンジン(Unreal Engine無償化、Unity5)の他分野への普及

GraphQL

機械学習ライブラリ(Tensorflow, PyTorch, Chainer)

Jupyter Notebook

NFT

モバイルアプリフレームワーク(React Native, Flutter/Dart)

シングルサインオン

多要素認証生体認証

メタバース

2023-03-30

anond:20230330141852

やりたいことがよく分からんが、tensorflowやPytorchみたいなライブラリを使ってやりたいならnVidiaGPU必須

その時点でmacは外れる

例えばRTX4090載せたLinuxあたりが手軽だろう

それでメモリが足りないとなると、GPU2枚とかサーバ向けGPUかになるけど、そうすると100万越えコースだね

2023-03-18

anond:20230318031454

GPT4:

AI技術やその他の技術が急速に発展している現代では、確かに最先端技術アクセスできないと置いていかれる感覚がありますしかし、経済的理由最先端技術を利用できない方々も、それに代わるリソース方法活用することが可能です。

AIやその他の分野での学習研究に役立つ無料または低コストリソースがたくさんあります。以下にいくつかの例を挙げます



経済的な制約がある場合でも、これらの無料または低コストリソース活用して、AIの分野で学び、成長することができます最先端技術に追いつくためには、情報へのアクセスだけでなく、自分自身学習意欲や努力重要です。

2022-11-14

anond:20221114092231

Tensorflowがあったな・・・最近はPyTorchだけど

Colaboratoryにしてもそうだけど、完全にプラットフォーマー側に回ってるよな

新しい何かを作るのは他の会社に任せます、みたいな雰囲気がある

2022-10-16

anond:20221016120034

5年前だろうと同じことだぞ。

そもそもCUDAPython関係ないのであんま分かってなさそう。

大方pytorchかtensorflowあたり使っててcuda環境との区別がついてないんだろうな。

2022-03-03

プログラミングの独学は環境構築が超大変

やりたいことがありPython勉強しているけど、マジで躓きが多い。

いや文法とかは調べりゃわかるじゃん。そういうのはJupyterで書いて学習はできるのよ。

そうじゃなくて、やりたいことを実現するための環境構築ができない。

独自ライブラリのinstallがうまくいかん、importがうまくいかん。

Visualなんちゃらツールが足りないだとか、TensorFlow必要とか仮想環境を立てるだとか、、

こんな初歩的なこと!って思うかもしれんけど、もうこれで一週間(夜の時間な)とか浪費してるわけ。

こんなんじゃ、やりたいことの実現に何か月もかかってしまいそうだ。

なんかこういう環境構築って「1本道感」がないんだよな。

本業SIerなんだけど、正直自分自身技術力のない人って認識はあるし、今回それがモロで裏目に出ている。

システムの構築をお願いする立場として、よくインフラ周りの人とかリリース担当の人とかから環境(構築)の手順が・・」とか始まってたのを思い出す。

当時は「ベンダーに聞いて解決しなさいよ」とか思ってたけど、今自分の躓いてる状況を踏まえると、それだけじゃ到底解決しなさそうなことも多いんだよな。

特にいまの自分は、躓いた時の手数が少ないし、どうすりゃいいかわからんことが多すぎる。

質問サイトとかは使ってるけど、みんなどこかのコミュニティ所属したり、ちゃんオンラインスクールとかで一本道的な環境構築法を学んだりしてるのだろうか。

環境構築が遅々として進まないストレスってすごいね。なんだかあきらめてしまいそうだよ。

2022-01-09

Pythonかいうクソ言語はさっさと淘汰されてほしい

結局まともに扱おうとするとtype hint書くことになるし、マジで動的である利点が無い

動的型付けの言語にも利点はあるという主張は(自分同意しかねるけど)理解しているが、今のPython用途で動的であるメリットが皆無

機械学習やっててPyTorchとかTensorFlowとか既存ライブラリPythonから仕方なくPython触ってるけどマジでさっさと淘汰されてほしい

それかJavaScriptにおけるTypeScriptみたいなのがPythonにもほしい

昨今Rustで機械学習かいうのもちょっと見かけたのでそっちが主流になる未来がきてくれ

2021-12-05

anond:20211204145826

次は Pytorch にチャレンジしてみたらどうか。

クラス概念がわかったということなので、ニューラルネットワーク簡単に組めることで更に感動しそう。

Tensorflow-Keras でもいいけど。Ver2で覚えよう)

Gitバージョン管理代表プロダクトであり、現代プログラマーの必須知識からプログラマーになりたいのであれば覚えたほうがいい。

本格的に使い方を試したいのであれば、サル先生に入門してみましょう。

https://backlog.com/ja/git-tutorial/

2021-11-05

うPythonは終わりました

なんか今頃になってPython学習コンテンツが充実してきてるけど

Pythonってもう旬を過ぎたと思うんだよな

AIとかディープラーニングが全盛期の数年前とかだったら

tensorflowとかsklearnとか使うためにPythonは凄く有用だったしこぞって使ってた

まぁそれでもPandasはクソだったけど他に選択肢もなかった

あと、AIみたいにサービス化とかUIを気にしなくて良いようなワンショットプログラミングには向いてた

型付けとかしなくていいし、少しぐらいメモリリークしてても気にしないし、UIはtensorboardとかグラフpngで吐き出せば良かった

何よりターミナルから打ち込んだら実行してくれたりMarkdownファイルの中に書いたら実行してくれたりそれはまぁ便利だった

ところがAIコモディティ化して頭打ちも見え始めてきた段階でそろそろビジネス化しないといけないけど

そうなるとPythonみたいなやんちゃ言語プロダクトレベルまで実装出来る人が少ないことに気づき始めた

UI作るの面倒だし、型チェックとかもやってくれないから想定してないバグが出たり

Pythonを凄いやってた人も「プロダクトレベルとなるとちょっと」っていう人が増えてきた

かといってJavaには戻りたくないってなってTypeScript流行り始めた

そもそも最終のUIWebだし、jQueryから始まったReact/Vue/Angularあたりはどれを使っても簡単UIを作れる

おまけに枯れたNode.jsサーバレスに実行できる環境であるからTypeScript流行りまくってるんだと思う

Web系の弱いところはスマホアプリで、WPAあるけどイマイチ流行ってないしAppleが乗り気じゃ無いのがなんとも

なのでflutterあたりが人気出てくるかなぁ、とは思うけどWeb系ほど選択肢が無いから合わない時にとことん合わないと思う

ここから数年はPython人気が落ちてきて、TypeScriptが伸びて、Dartじわじわ伸びてくるんじゃないかなぁ

学者Python、とか言うけど関係なくTypeScriptやった方がいいと思う

2021-07-08

anond:20210706022633

年収270万で)プログラマー引退して、医学部にきた俺が真面目に考えてやろう。

言葉は正しく使おう

真面目に読んでいて、ちょっと気になる箇所がある。たとえば PostgreSQL を postgre とか書くヤツは現場では嫌われるぞ。少なくとも postgres と書いてくれ。お里が知れるぞ。

プライドが高い

消えていくエンジニアの特徴だけど、叱責されたり馬鹿にされるのが嫌で VCSコミットしないヤツ、または貪欲コードレビューをされるのが嫌がるやつは、成長しない。

エリート意識

この業界は数年前には『デジタル土方』と揶揄される業界でした。ちなみに、アメリカでも「テック系はハードから避ける」という雰囲気でした。つまり何をいいたいのかというと、ソフトウェア開発者っていうのは「泥臭い領域」なんだよ。エリートとは程遠い場所にあるというね。

④ 「某天市場の先輩には,ここ仕事量少ないしオススメだよって言われたのですが,」

いやぁ、是非とも楽天で働くべきだよ。どうせ野村総合研究所とか NTT DATA なんて無理だと思うから

⑤「バックエンドは大体firebaseかgcpに任せているので,インフラあたりひいてはネットワーク知識が薄いです.」

うん、ココはまずい。基本的フロントエンドなんて給料が安いのよ。だって、誰にやらせてもデータベースにクソなDCLを飛ばせないから。逆に、データベースを触れることができるプログラマーリスク責任が大きいから、給料が高いのだよ。B4 になってもそれが理解できていないようだと、この先くらいよ。

⑥「後fpgaも少し.ハードウェア開発は結構苦手で回路図とか上手く書けません.」

君はソフトウェアエンジニアになりたいのだろ?世の中は分業で成り立っているのだから、全部やろうとするやつはアホだよ。

⑦「B3の夏くらいのタイミング東証一部上場企業インターンに行きました.」

インターン生はお客さんなの。君のスキル通用したのはすごいと思うけど、同じ感覚仕事はできないから注意しときなよ。

⑧「CSではないので受動に学ぶ機会も特になかったです」

なに言ってるの?そんなことは言い訳にならんよ。プログラマーになりたいのだろ?勉強しろよ。

⑨「Twitterとかで(主につよつよエンジニア達によって)エンジニアのべき論が語られているが,(以下略

逆にいうと、あなたインターンとして週3で20万円貰えていたのは、参入障壁が少ないからでしょ?強強エンジニアが生き残っているのは、それだけすごいということだよ。

⑩「仕事となると自分が扱ってこなかった技術を使わないといけなくて,扱ってこなかったということはつまり難しいということで.」

いやぁ、違うと思うよ。その問題が「難しい」なら切り分けて、上に「ココが自分能力では解決できないです」と持っていくだけなんだからさ。CS じゃないのだったら、仕事をするまで「扱わないまま」なんだよ?しかも、土日に勉強する気もないとなったらいつするのさ?

⑪「僕のようなクズと言われても仕方のない人材はどうしたら上手く(ストレスレス高収入の意)生きていけるのでしょうか?」

諦めなよ。ソフトウェアというものが「変化できることに価値がある」ものから。変化する業界ストレスフルだけど、立身出世する可能性が高いでしょ?安寧なばしょではないの。

⑫「今22歳,B4だ.Mまでは行く.Dに迷ってる.研究楽しいからです」

いやー、CSでない博士課程に行って、雇ってくれる企業があるかね?無いと思うけどな。

⑬「ネット実装例なんてクソの欠片も載ってないし,プロトコル理解のために特許資料論文をくまなく読む羽目になったのは本当に辛かったです.」

この時点で、君はコピペしかやってきてないことが理解できる。おそらく QUIC か MQTT あたりだろ?逆にいえば、それが実装できたら他社と差のつけられるプロダクトだったはずだ。つまり会社利益の源泉であった部分をみすみす実装できないようでは、そこらへんの専門卒以下だぞ。

⑭「html, css, javascript(jquery, express, react(next), vue(nuxt)), python, php, sql(postgre, oracle), graphql, ruby, swift, solidity, unity, c, c++ 業務レベルじゃなくていいならgo, kotlin, java, scala, dart, julia,(以下略

ムカつくというか、虫酸が走る書き方だ。箇条書きにすると、

⑯「プログラミングは17歳くらいから始めました」

プログラミングに年齢はないから。自分は9歳ではじめたけどね。

⑰「僕のつよつよエンジニアイメージを共有すると」

あー、俺も天才高校ときにいて、マーチ情報工学と旧帝の院の学費会社持ちという驚異的なやつがいたよ。今もブログ見てると、AndroidiPhoneアプリを書いているみたいで、元気そう。

⑱「つまり難易度が急に跳ね上がった.これが辛かったです...言語C++Java.」

それを上手にコントロールできるプログラマは世界中にもほとんどいねぇ。むしろ、月20万でやるもんならギルドから苦情が来るぞ。オレもアビームの人に給料を答えたら、「こんなヤクザ会社はやめろ」と耳うちされたよ。

結語

人より良い経験をしたいという願望はあるのは素晴らしいと思うよ。しかしながら、君が到達したノウハウ他人にもできることだからね。ワン・オブ・ゼムになりたくないなら、努力し続けることだな。勉強をするのをやめたら、数年で中卒に負ける世界からな。覚悟しとけよ。

追記

P.S. 医学部に来たのは家庭の都合だよ。それに、自己顕示しないと「場末コーダー」で読んでもくれないだろ?年収については、自分も低いと思うよ。なぜ低かったかというと、都内私立大学多浪中退自分にはベンチャーの皮を被った助成金搾取がメインの反社会的勢力フロントベンチャー企業ぐらいしか相手にしてくれなかったからだよ。そこの会社外国帰りの MDMA をキメて、未成年の子女に手を出しては警察沙汰スレスレのことをしているキチガイ社長をやっていて、人工知能を作ろうと学生インターン酷使している会社だったのだけど、「サイバーエージェントに紹介する」という嘘にひっかかって、特定派遣事業免許がないのに客先常駐させられ、土曜は帰社日、日曜は社長Python勉強会に参加させられる、というブラック会社にいてピンはね率(60%)となると、まともに考えることもできず働くアリになってしまってたからだよ。

P.S.年収については、初日から派遣先会社に引き抜きのオファーをもらって、2ヶ月後に新しい会社に移動したけど、300万だったので CodeIQ というサイト転職をする準備をしていたよ。たしかDMM とかサイバーエージェント面接にいこうとしてたような記憶。その後で家庭の都合で、医学部に来たけど。

P.S.医学部医学科の6年生だよー。みんなが嫌いな私立医学部だけどね。ちなみに、俺もこの大学が嫌いだ。

P.S. ④「GraphQLをわざわざ書くのは理解できるけどな。」そうだとすると、RESTSOAP も書かないとまずくない?書くのだったら「RailsNextデータ受け渡しにGraphQLを使った経験が」という感じだと良いと思うけど。

P.S. ⑤「野村総研データを挙げるあたりSI寄りの仕事してたのかな。 」ちゃうねん。オレっちは多浪たからさ、そこのエントリーシートをかけなかったのよね。まぁまぁ大学が名門でさぁ、OB が誘ってくれるけど、年齢で弾かれて辛かったねん。

P.S. ⑥「ダウト学費をどうやって稼いだんや 」えぇ、親の金です。だから家庭の都合でと書いてるじゃろ。

P.S. ⑦「本当に医学生ならここ数年の技術についてこの指摘ができる程詳しいわけないし少なくとも10年位は業界にいないとこういう感覚は身に付かない。 」たしかおかしいよな。Kubernetes や Terraform を弄って、CIGitHub Actions、CD には AWS CodeDeploy を使って、ブログは Jekyll で静的サイトジェネレータを使いつつ、自前のサービスを立ち上げるために Rails, Next, React, PostgreSQL, Redis, Kafka, Elasticsearch, S3 の勉強をしつつ、スマホ環境のために KotlinSwift を触れているなんて変だよな。そういえば、Docker が来るまでは Vagrant環境をつくっていたのも忘れてたよ。あと Rust を今年に学ぶ言語にするなんて、受験生にあるまじき行為だよな。うん。

P.S.年収については、基本給が 22万で、残業200時間超えたらプラスだった気がする。あと、反社ベンチャーは「ポートフォリオ作成にまる一ヶ月間で拘束された、しかも無給で」という時点でヤバいのだけど、その会社コミットしたのは「サイバーエージェントに紹介する」ということだけであって、同時期に DMM面接に行けそうだったのよね。馬鹿なことをした。

P.S. ⑨「特にフロントエンドを見下す感じとか」オレ自身フロントエンド出なんだよ。何を隠そう、Adobe Flashゲームをつくっていたから。それでもって言うよ、バックエンドが一番大切だと。

P.S. ⑩ 「相続税対策お疲れさんだな。」あたり。

P.S. ⑪「5~10年前に人売りに捕まった話とするなら、年収270万も現実味を帯びる。」特定派遣は消えてくれてよかったよ。俺のところは特定派遣すら未登録だったけど。

P.S. ⑫「いい医者になるのだよ 」うん、頑張る。「オッサン」「社会不適合者」「あるき方がキモい」「プログラミングwww」「同じ班になりたくない」「親も頭が悪い」「生きてて恥ずかしくないの?」とか言われてるけど、頑張る!

P.S. ⑬ 「フロントエンド別に給与低くないよ。」えっ、そうなの?WebDesigning を読む限りだと、400万もいかないイメージだけど。

P.S「医学部6年でまだプログラムに興味あるの不思議。」好きなんだよ、言わせるな///

P.S. GitHub なんやね。気をつけるよ。

P.S.フルタイムじゃないのでしょ?」いいえ、東京都内フルタイム(ひどいときで、朝7から24)でしたよ。入った会社が「法律よりも、派遣先評価」という会社だったからね。

P.S. サイバーエージェントさん、ときどき御社の社名を使って「弊社に恩を売ると、サイバーエージェントに紹介する」というベンチャー跋扈しているので、どうにかしてください。わたくし、1ヶ月間もその嘘で jQueryDjango を回収させられた挙げ句、月給 2000円だったのですけど。本当に千円札2枚だったのですけど。ついでに、AndroidJava) と iPhoneObjective-C)と jQuery を使ったフロントエンドシステムに、バックエンドRails + Postgresqlシステムで、AWS を介したサービスを作らされたのも「サイバーエージェントに紹介する」と言われたからなんですけど。いったい、何なんですか?お前ん所は、コンプライアンスどうなってんじゃ。

P.S. 「好きそうだし医学部卒業してシレッとgoogle行ったれ 」無理っすよ。オレのスキルじゃ。

P.S.病院は」親がクリニックを持っていたけど、潰したよ。クリニックは人に患者がついていて、アルバイトを充てがっても患者さんが不幸になっていくのをみちゃったからね。自分責任を持って患者さんを見たいから、バイトなんて使わないよ。

P.S. 自分コードを書きたいタイプだったから、SIer みたいな UML とか書いて下請けコードさせるみたいなのは絶対に嫌だったのよね。だから SIer にはならなかったよ。やっぱり、現実にある計算機解決できる問題を、より直接的に触れて解決したいと思っているから。仕事ハードでも全く問題なし。

P.S. FPGA すごいよね。ザイリンクスアルテラIntelAMD に買収されて、すごいと思ったよ。2010年頃だっけ?、CPU限界FPGA突破しようという話があったけど。手を出そうと思ったけど、高性能なチップ100万ぐらいして挫折した記憶があるよ。

P.S.東海大医学部学士」は自分大学卒業してないから無理でした。あと、それ以上の詮索はやめてくれ...

P.S.MySQLそんなに嫌いなのか。」そんなこと書いたつもりはないが、あれ?確かに MySQLPostgreSQL より嫌いたけど、それは Oracle が親元だったり、Unicode の扱いがファッキンだったり、ストレージエンジンが切り替わるときカオスな目にあったけどさ、MySQL は好きだよ。お世話になったし。

P.S. 給料については契約後に言われたのよ。というか、もともとは「サイバーエージェントに紹介」するという理由で、ポートフォリオ作成Django の改修を手伝ったつもりで、入社とかする気は全く無かったのよ。それが、いきなり他所会社面接を受けさせられて「君は明日からXXで働くから履歴書を書いてね」と言われて、抗議したら「俺に恥ずかしい思いをさせるのか!業界に入れなくするぞ!」と大声でシャウトされて、気がついたらあっちが用意した履歴書拇印してしまったのよね。有料職業紹介と派遣登録をしてない会社だったから、そんなかとはできないはずなんだけどね。ホームページには「年収550万」と書いてあったけど、実際はまったく違ったのだけどね。

P.S.「うーん、いらないかな。IT土方としての仕事しかないと思う。」だよな。おとなしく医者になるよ。ありがとう

P.S. Elasticsearch は全文検索機能がほしいからやってるよ。Redisインメモリセッションストアとして使いたいのよ。Kafka はさ、twitter のファボをじっそうしたいけど、RDB書き込み速度が上がらないから利用したいの。TensorFlow は全く理解できてないよ。それは、指摘されたとおり。

追記追記

逆に聞くけど、以下の知識があったらどれぐらいもらえるわけ?東京23区で。

2021-04-01

conda-forgeにtensorflow-gpu無いんやな

時給が大体3000円だからドライバやらなんやかんやして30分損するならCommertialEdition買った方がいいんだよな

2021-03-28

anond:20210328122157

設定が雑なので雑に書くぞ。URL貼りすぎると投稿できないから所々自分で見つけて。

ガチ初心者

ほぼ初心者Udemy

Udemy終わったら本

DeepLearning

理論(というか↑で紹介してない本)

ログイン ユーザー登録
ようこそ ゲスト さん