0

ビジネスパーソンのための世界情勢を読み解く10の視点 ベルリンの壁からメキシコの壁へ

ビジネスパーソンのための世界情勢を読み解く10の視点 ベルリンの壁からメキシコの壁へ
森千春
ディスカヴァー・トゥエンティワン

けっこう面白かった.南米・アフリカ・東南アジアの話も書いて欲しい.

内容: 特派員として「ベルリンの壁」崩壊に立ち会った著者が、各国での取材体験をもとに、この混迷と激動の世界情勢の読み解き方を考察する。「ベルリンの壁」崩壊からグローバル化は加速し限りなく続くかに見えたが、いまやアメリカを筆頭として多くの国が閉鎖的になりつつある。グローバル化逆流の時代、「国家」が存在感を高め、生き残りを賭けて動き出す。世界の行方は?その中で日本はどうする? (Amazonより)

Advertisements
0

頭に来てもアホとは戦うな!

頭に来てもアホとは戦うな!
田村耕太郎
朝日新聞出版

京都がウンタラって本と同じ.タイトルと中身が一致してない.最初の方はアホと戦うなみたいな話が書いてあるけど,後半はアホ関係ない話.ただ,読む価値はあるので,タイトルから期待することを止めれば楽しめる.

内容: 苦手なヤツほど、徹底的に利用せよ。(1)相手の欲望を見抜き(2)腰を低くして、助けを求め(3)味方にする!目標がみるみる叶う最強の「人の動かし方」。 (Amazonより)

0

Mの女

Mの女
浦賀和宏
幻冬舎文庫

何がなんやらわけのわからぬままに話が進み,最後にドバっと.最後まで読むと全ての謎が解ける系の作者.ただ,湊かなえとは感じが違って,勘が良くても隠されたシナリオはわからないだろうなーって感じ.

Amazonで調べたら,同一作者が次作を書いているみたいなので,読んでみようと思う.

内容紹介: ミステリ作家の冴子は、友人・亜美から恋人タケルを紹介される。第一印象からタケルに不穏なものを感じていた冴子は、一通のファンレターを契機に、タケルに不審を抱き、彼の過去を探ることに。するとそこには数多くの死が……! そしてその死は着実に冴子と亜美にも近づいていた。逆転に次ぐ逆転。鮮やかに覆っていく真実。これぞミステリの真髄! (Amazonより)

0

沈黙する女たち

沈黙する女たち
麻見和史
幻冬舎文庫

ケーブルテレビ?の取材記者と元刑事コンビが取材をする奇妙な連続殺人事件.次回作も視野に入れた終わらせかただなーって思ったら,そもそも本作が2作品目だった.とりあえず1作品目を購入した.

マスコミ側の人間が主人公なのに,マスコミの鬼畜感を感じさせない点は良いと思う.膝を抱えたような姿勢で放置された死体の真意になるほどー.

内容: 廃屋に展示されるように残されていた女性の全裸死体。それを撮影したものが会員サイト「死体美術館」にアップされる。その頃、凶悪事件を取材するCS放送クライムチャンネルに、元警視庁捜査一課の久我が加わっていた……。廃屋で発見される女性の全裸死体。犯人の正体と目的とは?「重犯罪取材班・早乙女綾香」シリーズ第2弾。 (Amazonより)

0

ワルツヲオドロウ

ワルツヲオドロウ
中山七里
幻冬舎

不況を原因としたリストラと父の死をきっかけに地元である東京都内のとんでもない田舎に戻った了衛.田舎は限界集落に分類される超絶田舎で,7世帯9人の最も若い人で60歳を越えているような村.

何とか村に溶け込もうとする了衛が空回り,徐々にダークサイドに陥っていく.最終的には津山の事件みたいな感じの村民殺戮事件へと発展.何となく途中で真犯人が脳裏をよぎるんだけど,ボーっと読んでいたせいか動機に気付けなかった(と言い訳しておく).

内容: 20年ぶりに帰郷した了衛を迎えたのは、閉鎖的な村人たちの好奇の目だった。愛するワルツの名曲“美しく青きドナウ”を通じ、荒廃した村を立て直そうとするが、了衛の身辺で、不審な出来事が起こりはじめ…。 (Amazonより)

0

まぐだら屋のマリア

まぐだら屋のマリア
原田マハ
幻冬舎

料理の使い回しや食品偽装などが慢性化していた老舗料亭で修行をしていた紫紋.料亭の問題が告発されてから終焉の地を求めてさすらい,たどり着いたのは尽果というバス停の近くに立つ料理屋まぐだら屋.まぐだら屋での生活を通して紫紋を含む関係者が徐々に再生していく.

料亭のモデルは船場吉兆なのかな?って感じ.そこまで重要ではない.

こんなこともあるのかなぁという感じ.久しぶりにホッとするような話だった.結末を忘れたけど,いい話だったのは間違いない.

内容: “尽果”バス停近くの定食屋「まぐだら屋」。様々な傷を負った人間が、集まってくる。左手の薬指がすっぱり切り落とされている謎めいた女性・マリア。母を殺したと駆け込んできた若者。乱暴だが心優しい漁師。そしてマリアの事をひどく憎んでいる老女。人々との関わりを通して、頑になっていた紫紋の心と体がほどけていくが、それは逃げ続けてきた苦しい現実に向き直る始まりでもあった…。生き直す勇気を得る、衝撃の感涙長編。 (Amazonより)

0

Keras: MNIST classification

Keras implementation for MNIST classification with batch normalization and leaky ReLU.


import numpy as np
import time
import pandas as pd
import matplotlib.pyplot as plt

from keras.datasets import mnist
from keras.models import Sequential
from keras.layers import Dense, Dropout, LeakyReLU, Activation, Flatten
from keras.optimizers import Adam
from keras.layers.normalization import BatchNormalization
from keras.utils import np_utils
from keras.layers import Conv2D, MaxPooling2D
from keras.utils import plot_model
from keras.backend import set_learning_phase, learning_phase

def build_classifier(input_shape, num_classes, num_pooling):
"""
input_shape = (image_width, image_height, 1)
"""
# settings
kernel_size = (3, 3)
pool_size = (2, 2)
num_featuremaps = 32
size_featurevector = 1024

# Three steps to create a CNN
# 1. Convolution
# 2. Activation
# 3. Pooling
# Repeat Steps 1,2,3 for adding more hidden layers

# 4. After that make a fully connected network
# This fully connected network gives ability to the CNN
# to classify the samples

model = Sequential()

# add convolution blocks num_pooling times for featuremap extraction
for block in range(num_pooling):
if block == 0:
model.add(Conv2D(num_featuremaps, kernel_size=kernel_size, padding='same', activation='linear', input_shape=input_shape))
else:
num_featuremaps *= 2
model.add(Conv2D(num_featuremaps, kernel_size=kernel_size, padding='same', activation='linear'))
model.add(BatchNormalization())
model.add(LeakyReLU(0.2))

model.add(Conv2D(num_featuremaps, kernel_size=kernel_size, padding='same', activation='linear'))
model.add(BatchNormalization())
model.add(LeakyReLU(0.2))

model.add(MaxPooling2D(pool_size=pool_size))

model.add(Flatten())

# add fully connected layers for classification
for block in range(num_pooling):
model.add(Dense(size_featurevector, activation='linear'))
model.add(LeakyReLU(alpha=0.2))
model.add(BatchNormalization())
model.add(Dropout(0.5))

model.add(Dense(num_classes))

model.add(Activation('softmax'))

return model

 

def demo_load_model():
num_pooling = 3
input_shapes = [(64, 64, 1), (128, 128, 1), (256, 256, 1)]
for input_shape in input_shapes:
model = build_pointset_classifier(input_shape,
100,
num_pooling)

filename = 'pointset_classifier_%s.png' % str(input_shape[0])
plot_model(model,
to_file=filename,
show_shapes=True)

 

if __name__ == '__main__':
""" settings
"""
img_width = 28
img_height = 28
input_shape = (img_width, img_height, 1)
num_classes = 10
num_epoch = 3
size_batch = 100

""" load data
"""
(x_train, y_train), (x_test, y_test) = mnist.load_data()

x_train = x_train.reshape(x_train.shape[0], img_width, img_height, 1)
x_train = x_train.astype('float32')
x_train /= 255.0
y_train = np_utils.to_categorical(y_train, num_classes)

x_test = x_test.reshape(x_test.shape[0], img_width, img_height, 1)
x_test = x_test.astype('float32')
x_test /= 255.0
y_test = np_utils.to_categorical(y_test, num_classes)

""" build neural network
"""
num_pooling = 2
set_learning_phase(1)
model = build_classifier(input_shape,
num_classes,
num_pooling)

filename = 'classifier_%s.png' % str(input_shape[0])
plot_model(model,
to_file=filename,
show_shapes=True)

model.compile(loss='categorical_crossentropy',
optimizer=Adam(),
metrics=['accuracy'])
model.summary()
""" train the model
"""
time_begin = time.clock()
history = model.fit(x_train, y_train,
validation_data=(x_test, y_test),
epochs=num_epoch,
batch_size=size_batch,
verbose=1)
print('Time elapsed: %.0f' % (time.clock() - time_begin))

""" valid the model
"""
set_learning_phase(0)
score = model.evaluate(x_test, y_test, verbose=0)
print('Test loss:', score[0])
print('Test accuracy:', score[1])