紙媒体で管理するとなくなりがちなのでブログで進捗などを管理することにしました
※殆どの記事は自分自身のためだけにかいています.他人に見せられるレベルには至っていません...

「5000兆円欲しい」までツイートし続ける

#!/usr/bin/env python
# -*- coding: utf-8 -*-
from requests_oauthlib import OAuth1Session

def Tweet(tweet):
    """str型のtweetを受け取り,それをツイートする
    """
    CK = ''                             # Consumer Key
    CS = ''         # Consumer Secret
    AT = '' # Access Token
    AS = ''         # Accesss Token Secert

    # ツイート投稿用のURL
    url = "https://api.twitter.com/1.1/statuses/update.json"
    
    # ツイート本文
    params = {"status": tweet}

    # OAuth認証で POST method で投稿
    twitter = OAuth1Session(CK, CS, AT, AS)
    req = twitter.post(url, params = params)

    # レスポンスを確認
    if req.status_code == 200:
        print ("ツイートに成功しました")
    else:
        print("ツイートに失敗")
        print ("Error: %d" % req.status_code)

def main():
    a = 1
    while a<5000000000000000:
        Tweet(str(a)+"円欲しい")
        a *= 2
    Tweet(str(a)+"円欲しい")

if __name__ == "__main__":
    main()

【蟻本】Lake Counting

// 蟻本p.35
// Lake Counting(POJ No.2386)
// 深さ優先探索で同じ文字を消していく問題

#include <bits/stdc++.h>
using namespace std;

static const int MAX_N = 100;
static const int MAX_M = 100;
char field[MAX_N][MAX_M];
int n,m;
int dx[8]={1,1,0,-1,-1,-1,0,1},dy[8]={0,1,1,1,0,-1,-1,-1};

void dfs(int y,int x)
{
    field[y][x] = '.';
    for(int i=0;i<8;i++){
        int ny = y+dy[i];
        int nx = x+dx[i];
        if(0<=nx && nx<m && 0<=ny && ny<n && field[ny][nx]=='W'){
            dfs(ny,nx);
        }
    }
}

int main()
{
    int cnt = 0;
    //INPUT
    cin>>n>>m;
    string tmp;
    for(int i=0;i<n;i++){
        cin>>tmp;
        for(int j=0;j<m;j++){
            field[i][j] = tmp[j];
        }
    }
    //depth first search
    for(int i=0;i<n;i++){
        for(int j=0;j<m;j++){
            if(field[i][j]=='W'){
                cnt += 1;
                //周囲の'W'を消していく
                dfs(i,j);
            }
        }
    }
    cout<<cnt<<endl;
    return 0;
}

【蟻本】部分和問題

// あり本 p.34
// 部分和問題
// 数列の中からいくつか選び和がkにできるか判定する

#include <bits/stdc++.h>
using namespace std;

static const int MAX_N = 20;
int cnt = 0;
int k,n;
int a[MAX_N];

bool dfs(int i,int s)
{
    if(i==n)return s==k;
    //a[i]を使わない場合
    if(dfs(i+1,s))return true;
    //a[i]を使う場合
    if(dfs(i+1,s+a[i]))return true;
    return false;
}

int main()
{
    cin>>n>>k;
    for(int i=0;i<n;i++)cin>>a[i];
    cout<<(dfs(0,0)?"yes":"no")<<endl;
    return 0;
}

【画像処理】画像機械学習の前処理

前処理フィルタについて | 画像処理.com | キーエンス
元の画像
f:id:umashika5555:20170503021649p:plain

グレイスケール
f:id:umashika5555:20170503021659j:plain

膨張フィルタ
f:id:umashika5555:20170503021709j:plain

収縮フィルタ
f:id:umashika5555:20170503021721j:plain

平均化フィルタ
f:id:umashika5555:20170503021730j:plain

メディアンフィルタ
f:id:umashika5555:20170503021744j:plain



平均化フィルタ

#coding:utf-8
"""
$jupyter notebook
$for python3.x
"""
from mpl_toolkits.mplot3d import Axes3D
import matplotlib.pyplot as plt
import numpy as np
from sklearn.cluster import KMeans
from PIL import Image
from PIL import ImageDraw
from random import randint
from os.path import exists
from os import mkdir
from math import fabs
from random import random
from copy import deepcopy
from math import log
from math import sqrt
import cv2
import numpy as np
from collections import namedtuple
import csv

INF = 1e30

def convert(img):
    """収縮フィルタ"""
    #画像のサイズ
    height = img.shape[0]
    width  = img.shape[1]

    #変換後のリスト
    img2 = np.zeros((width, height), np.uint8)

    #変換---------------------------------------------------------------
    for y in range(1,height-1):
        for x in range(1,width-1):
            tmp = 0.0
            for a in range(y-1,y+2):
                for b in range(x-1,x+2):
                    tmp += img[a,b]
            tmp /= 9
            img2[y,x] = tmp            
    #-------------------------------------------------------------------
    
    #画像を表示
    cv2.imshow("image",img2)
    cv2.waitKey(0)#キーを押すと終了
    cv2.destroyAllWindows()

    #画像を出力
    file_name = "expansion_filter"
    cv2.imwrite(file_name+".jpg",img2)

def main():
    #特徴ベクトルの型の定義
    vec = namedtuple('vec_info',['GBR','coordinate'])

    #画像を読み込み
    filename = "ika.png"
    img = cv2.imread(filename,0)
    
    #GLAY_SCALE画像を出力
    file_name = "GRAY_SCALE"+filename
    cv2.imwrite(file_name+".jpg",img)

    #膨張フィルタ
    convert(img)

if __name__ == '__main__':
    main()

膨張フィルタ

    for y in range(1,height-1):
        for x in range(1,width-1):
            tmp = -INF
            for a in range(y-1,y+2):
                for b in range(x-1,x+2):
                    tmp = max(tmp,img[a,b])
            img2[y,x] = tmp   

収縮フィルタ

    for y in range(1,height-1):
        for x in range(1,width-1):
            tmp = INF
            for a in range(y-1,y+2):
                for b in range(x-1,x+2):
                    tmp = min(tmp,img[a,b])
            img2[y,x] = tmp     

メディアンフィルタ

    for y in range(1,height-1):
        for x in range(1,width-1):
            tmp = list()
            for a in range(y-1,y+2):
                for b in range(x-1,x+2):
                    tmp.append(img[a,b])
            print(tmp)
            img2[y,x] = sorted(tmp)[4]

端っこについては考察していない.
4マスで考えれば良いのかな?
特徴抽出はあくまで中央のものだから端っこはあまり重要ではない気がするが

【Python】【画像処理】k-means法で画像を減色

減色された画像の色(代表ベクトル)とグラフの点の色が同じになるように改良した.
matplotlib.pyplotのscatterの色の指定ではc="#000000"のように16進数でRGBの順に指定する必要がある.
OpenCVではGBRの順なので気をつける.

#coding:utf-8
"""
$jupyter notebook
$for python3.x
"""
from mpl_toolkits.mplot3d import Axes3D
import matplotlib.pyplot as plt
import numpy as np
from sklearn.cluster import KMeans
from PIL import Image
from PIL import ImageDraw
from random import randint
from os.path import exists
from os import mkdir
from math import fabs
from random import random
from copy import deepcopy
from math import log
from math import sqrt
import cv2
import numpy as np
from collections import namedtuple
import csv

def calc_centroid(vecs):
    g,b,r = 0,0,0
    for v in vecs:
        g+=v[0][0]
        b+=v[0][1]
        r+=v[0][2]
    g/=len(vecs)
    b/=len(vecs)
    r/=len(vecs)
    return (int(round(g)),int(round(b)),int(round(r)))

def rgb2hex(centroids):
    #gbr->rbgの16進数
    hex_color_code = []
    for v in centroids:
        tmp = []
        hex_code = ""
        for e in v:
            if e<16:
                h = "0"+str(hex(e))[2:]
            else:
                h = str(hex(e))[2:]
            tmp.append(h)
        hex_code = tmp[2]+tmp[1]+tmp[0]
        hex_color_code.append("#"+hex_code)
    return hex_color_code
    

def main():
    #特徴ベクトルの型の定義
    vec = namedtuple('vec_info',['GBR','coordinate'])

    #画像を読み込み
    img = cv2.imread("sample.png")
    
    #画像のサイズ
    height = img.shape[0]
    width  = img.shape[1]

    #特徴ベクトルの総数(画素数)
    num_vec = height*width

    #各画素の特徴ベクトルを取得する
    vectors = []
    for y in range(height):
        for x in range(width):
            BGR = img[y,x]
            v = vec(BGR,(y,x))
            vectors.append(v)
    vectors = np.array(vectors)
    feature_vectors = vectors[:,0]
    #feature_vectors = np.reshape(feature_vectors,(1,len(feature_vectors)))
    tmp = []
    for vec in feature_vectors:
        tmp.append(vec)
    feature_vectors = np.array(list(tmp))

    #特徴空間の点をプロット
    feature_vectors_G = feature_vectors[:,0]
    feature_vectors_B = feature_vectors[:,1]
    feature_vectors_R = feature_vectors[:,2]

    #初期プロットの表示
    fig = plt.figure()
    ax = Axes3D(fig)
    ax.scatter3D(feature_vectors_G,feature_vectors_B,feature_vectors_R)
    plt.show()

    #クラスタの個数
    num_cluster = 50
    #k-means法
    km = KMeans(n_clusters=num_cluster,
                init='random',
                n_init=10,
                max_iter=100,
                tol=1e-04,
                random_state=0
                )
    y_km = km.fit_predict(feature_vectors)#y_kmにクラスタの番号が保存される

    #クラス毎に分類する
    #vectorsとfeature_vectorsとy_kmは互いに添字が一致
    CLUSTER = [[] for _ in range(num_cluster)]
    for i,v in enumerate(vectors):
        for which_cluster in range(num_cluster):
            if y_km[i] == which_cluster:
                CLUSTER[which_cluster].append(v)
    
    #セントロイドを求める
    centroids = [[] for _ in range(len(CLUSTER))]
    for i,vecs in enumerate(CLUSTER):
        centroids[i] = calc_centroid(vecs)

    #セントロイドを16進数コードに変換する
    COLOR = rgb2hex(centroids)

    #クラス毎にプロットする
    #COLOR = ['b','g','r','c','m','y','k']
    CLUSTER_COLOR = [[[],[],[]] for _ in range(num_cluster)]
    fig = plt.figure()
    ax = Axes3D(fig)
    ax.set_xlabel('G')
    ax.set_ylabel('B')
    ax.set_zlabel('R')
    for i,vecs in enumerate(CLUSTER):
        for j,v in enumerate(vecs):
            CLUSTER_COLOR[i][0].append(v[0][0])
            CLUSTER_COLOR[i][1].append(v[0][1])
            CLUSTER_COLOR[i][2].append(v[0][2])
        for k in range(3):
            CLUSTER_COLOR[i][k] = np.array(CLUSTER_COLOR[i][k])
    for i in range(len(CLUSTER_COLOR)):
        ax.scatter(CLUSTER_COLOR[i][0],CLUSTER_COLOR[i][1],CLUSTER_COLOR[i][2],c=COLOR[i])
    plt.show()
    
    #画像を変換していく
    for i,vecs in enumerate(CLUSTER):
        for j,v in enumerate(vecs):
            img[v[1][0],v[1][1]] = centroids[i]
    
    #画像を表示
    cv2.imshow("image",img)
    cv2.waitKey(0)#キーを押すと終了
    cv2.destroyAllWindows()    

    #画像を出力
    file_name = "res_"+str(len(CLUSTER))
    cv2.imwrite(file_name+".jpg",img)

    

if __name__ == '__main__':
    main()

f:id:umashika5555:20170503005804p:plainf:id:umashika5555:20170503005805p:plainf:id:umashika5555:20170503005806p:plainf:id:umashika5555:20170503005807p:plain

【Python】【画像処理】k-means法で画像を減色

上の画像を7色に減色した.
f:id:umashika5555:20170501175220p:plain
f:id:umashika5555:20170501174754p:plain

ソースコードは適宜変数を付け足していったので自分でもわからなくなったので注意.

#coding:utf-8
"""
$jupyter notebook
$for python3.x
"""
from mpl_toolkits.mplot3d import Axes3D
import matplotlib.pyplot as plt
import numpy as np
from sklearn.cluster import KMeans
from PIL import Image
from PIL import ImageDraw
from random import randint
from os.path import exists
from os import mkdir
from math import fabs
from random import random
from copy import deepcopy
from math import log
from math import sqrt
import cv2
import numpy as np
from collections import namedtuple
import csv

def calc_centroid(vecs):
    g,b,r = 0,0,0
    for v in vecs:
        g+=v[0][0]
        b+=v[0][1]
        r+=v[0][2]
    g/=len(vecs)
    b/=len(vecs)
    r/=len(vecs)
    return np.array([g,b,r])


def main():
    #特徴ベクトルの型の定義
    vec = namedtuple('vec_info',['GBR','coordinate'])

    #画像を読み込み
    img = cv2.imread("sample.png")
    
    #画像のサイズ
    height = img.shape[0]
    width  = img.shape[1]

    #特徴ベクトルの総数(画素数)
    num_vec = height*width

    #各画素の特徴ベクトルを取得する
    vectors = []
    for y in range(height):
        for x in range(width):
            BGR = img[y,x]
            v = vec(BGR,(y,x))
            vectors.append(v)
    vectors = np.array(vectors)
    feature_vectors = vectors[:,0]
    #feature_vectors = np.reshape(feature_vectors,(1,len(feature_vectors)))
    tmp = []
    for vec in feature_vectors:
        tmp.append(vec)
    feature_vectors = np.array(list(tmp))

    #特徴空間の点をプロット
    feature_vectors_G = feature_vectors[:,0]
    feature_vectors_B = feature_vectors[:,1]
    feature_vectors_R = feature_vectors[:,2]

    #初期プロットの表示
    fig = plt.figure()
    ax = Axes3D(fig)
    ax.scatter3D(feature_vectors_G,feature_vectors_B,feature_vectors_R)
    plt.show()

    #クラスタの個数
    num_cluster = 7

    #k-means法
    km = KMeans(n_clusters=num_cluster,
                init='random',
                n_init=10,
                max_iter=100,
                tol=1e-04,
                random_state=0
                )
    y_km = km.fit_predict(feature_vectors)#y_kmにクラスタの番号が保存される

    #クラス毎に分類する
    #vectorsとfeature_vectorsとy_kmは互いに添字が一致
    CLUSTER = [[] for _ in range(num_cluster)]
    for i,v in enumerate(vectors):
        for which_cluster in range(num_cluster):
            if y_km[i] == which_cluster:
                CLUSTER[which_cluster].append(v)
    
    #クラス毎にプロットする
    COLOR = ['b','g','r','c','m','y','k']
    CLUSTER_COLOR = [[[],[],[]] for _ in range(num_cluster)]
    fig = plt.figure()
    ax = Axes3D(fig)
    for i,vecs in enumerate(CLUSTER):
        for j,v in enumerate(vecs):
            CLUSTER_COLOR[i][0].append(v[0][0])
            CLUSTER_COLOR[i][1].append(v[0][1])
            CLUSTER_COLOR[i][2].append(v[0][2])
        for k in range(3):
            CLUSTER_COLOR[i][k] = np.array(CLUSTER_COLOR[i][k])
    for i in range(len(CLUSTER_COLOR)):
        ax.scatter(CLUSTER_COLOR[i][0],CLUSTER_COLOR[i][1],CLUSTER_COLOR[i][2])
    plt.show()

    #セントロイドを求める
    centroids = [[] for _ in range(len(CLUSTER))]
    for i,vecs in enumerate(CLUSTER):
        centroids[i] = calc_centroid(vecs)

    #画像を変換していく
    for i,vecs in enumerate(CLUSTER):
        for j,v in enumerate(vecs):
            img[v[1][0],v[1][1]] = centroids[i]
    
    #画像を表示
    cv2.imshow("image",img)
    cv2.waitKey(0)#キーを押すと終了
    cv2.destroyAllWindows()    

    #画像を出力
    file_name = "res_"+str(len(CLUSTER))
    cv2.imwrite(file_name+".jpg",img)

if __name__ == '__main__':
    main()

GBR値の3次元プロットの様子
k-means法で同じ位置にクラスタが出来ているのがわかる.
k-means法は自分で実装するよりfrom sklearn.cluster import KMeansを使うと楽だし正確.
f:id:umashika5555:20170501174904p:plainf:id:umashika5555:20170501174908p:plain

【Python】3Dグラフを自動回転する

3Dグラフを自動で回転させる方法が載ってる.
meganehouser.hatenablog.com

【Jupyter】実行+下のセル

Shift+Enterでできる!

【Python】【画像処理】画像の画素毎のGBR値を3Dグラフにプロットする

#coding:utf-8
"""
$jupyter notebook
$for python3.x
"""
from mpl_toolkits.mplot3d import Axes3D
import matplotlib.pyplot as plt
import numpy as np
from sklearn.cluster import KMeans
from PIL import Image
from PIL import ImageDraw
from random import randint
from os.path import exists
from os import mkdir
from math import fabs
from random import random
from copy import deepcopy
from math import log
from math import sqrt
import cv2
import numpy as np
from collections import namedtuple
import csv

def main():
    #特徴ベクトルの型の定義
    vec = namedtuple('vec_info',['GBR','coordinate'])

    #画像を読み込み
    img = cv2.imread("sample.png")
    
    #画像のサイズ
    height = img.shape[0]
    width  = img.shape[1]

    #特徴ベクトルの総数(画素数)
    num_vec = height*width

    #各画素の特徴ベクトルを取得する
    vectors = []
    for y in range(height):
        for x in range(width):
            BGR = img[y,x]
            v = vec(BGR,(y,x))
            vectors.append(v)
    vectors = np.array(vectors)
    feature_vectors = vectors[:,0]
    #feature_vectors = np.reshape(feature_vectors,(1,len(feature_vectors)))
    tmp = []
    for vec in feature_vectors:
        tmp.append(vec)
    feature_vectors = np.array(list(tmp))

    #特徴空間の点をプロット
    feature_vectors_G = feature_vectors[:,0]
    feature_vectors_B = feature_vectors[:,1]
    feature_vectors_R = feature_vectors[:,2]

    #初期プロットの表示
    fig = plt.figure()
    ax = Axes3D(fig)
    ax.scatter3D(feature_vectors_G,feature_vectors_B,feature_vectors_R)
    plt.show()

if __name__ == '__main__':
    main()

ライブラリは適当
グラフを動かせるようにしたい.
f:id:umashika5555:20170501132337p:plain
f:id:umashika5555:20170501135633p:plainf:id:umashika5555:20170501135631p:plainf:id:umashika5555:20170501135628p:plain


【追記】
デフォルトで回転できるようになってた.

【python】画像表示

jupyterで画像の読み込みするときに便利

from PIL import Image
im = Image.open("./img_0.jpg")
im.show()