스타쉽트루퍼스:화성의 반란자( Starship Troopers : Traitor of Mars, 2017 )

분위기도 좋고 영화가 재미있다고 생각했는데 엔딩크레딧에
감독이 일본인으로 되어 있다. 검색을 해보니 "아라마키 신지"
일본 CG애니메이션의 거장인가 보다. 무엇보다 내가 좋아하는
"애플 시드"를 만든 감독이라니. 그러고 보니 애플시드의 메카닉과
비슷한 느낌이 나는 것 같기도 하다.


군함도( Battleship Island, 2017 )

일제 시대의 사건을 소재로 한 영화는 어떤 의미에서든 답답하다.
당하는 사람들을 보는 것도 답답하고, 같은 국민끼리 서로를 착취하려
하는 것도 답답하고. 잔인한 일본 놈들의 행위도 답답하고. 아무튼 아픈 부분들이 많다. 
일부러 다큐멘터리 같은 느낌을 내려 했는지 모르겠지만 깊이 보다는 
이야기를 빠르게 건성건성 넘어가면서 한 느낌이 든다.
뒷 부분은 속은 시원하지만 너무 빠르게 진행되어 장난 같은 느낌도 들었다.
아니면 어떤 의미에서든 집중을 하지 못해서 그런 건지도 모르겠다. 


싱글 라이더( Single Rider, 2017 )

분위기도 좋고 호주 풍광도 좋다. 영화의 틀, 트릭도 좋다
그런데 영화는 무엇을 말하고 싶었던 걸까?
기러기 아빠의 비애? 금융권 비리와 자살? 아이들과 외국간
엄마들의 외도? 호주 워킹 홀러데이의 문제? 영혼의 존재?
아마도 감독이 너무 감각적이었거나 하고 싶었던 말이 너무 많았던 
것은 아니었을까? 아니면 표현이 서투른건지도.. 많이 아쉽다.
이병헌, 공효진을 배우로 쓰고도 이 정도 영화를 만들다니...


Posted by 게 르 니 카

휴먼스( Humans, 2015 )

알파고 이후로 인공지능이 대세인 시대. 
인공지능이 구세주가 되기도 하고 터미네이터가 되기도 한다.
어떠한 논의도 답의 방향을 예측조차 하기 힘들다.
여러 가능성의 하나를 체험하듯 보는 것 만으로도
이 드라마를 볼 가치는 충분하다.

스파이더맨 : 홈커밍( Spiderman : Homecomming, 2017 )

스파이더맨은 감동보다는 보는 재미는 쏠쏠하다.
마블 히어로들 중 제일 가난해서 그런지 신기한 장비보다는
감각과 운동신경으로 버텨내기만 하니. 그래도 이번 영화는
아이언맨이 만들어준 수트 덕분에 볼 거리는 더 있었다.  


혹성탈출 : 종의 전쟁 ( War for the planet of the apes, 2017 )

잘만든 영화. 감동도 있고, 서사도 있고, 그래픽도 훌룡하다.
대령의 죽음이 조금 아쉽기는 하지만 여러 유인원들의 갈등
형태가 영화를 보는 재미를 더한다. 그런데 정말 인간을
바보로 만드는 바이러스가 있을까?




Posted by 게 르 니 카




# MNIST 데이터 불러오기.

from tensorflow.examples.tutorials.mnist import input_data

mnist = input_data.read_data_sets('MNIST_data', one_hot=True)


# tensorflow 세션 구동.

import tensorflow as tf

sess = tf.InteractiveSession()


# x  : 트레이닝 입력 벡터.  

# y_ : 결과 레이블.

x = tf.placeholder(tf.float32, shape=[None, 784])

y_ = tf.placeholder(tf.float32, shape=[None, 10])

# 입력 벡터를 28*28 행렬로 전환. 

x_image = tf.reshape(x, [-1,28,28,1])


# Weight 초기화 함수. 

def weight_variable(shape):

  initial = tf.truncated_normal(shape, stddev=0.1)

  return tf.Variable(initial)


# Bias 초기화 함수. 

def bias_variable(shape):

  initial = tf.constant(0.1, shape=shape)

  return tf.Variable(initial)


# 2D convolution 함수.

def conv2d(x, W):

  return tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding='SAME')


# 2*2 max pooling 함수.

def max_pool_2x2(x):

  return tf.nn.max_pool(x, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME')


# 첫번째 Convolutional Layer

W_conv1 = weight_variable([5, 5, 1, 32])

b_conv1 = bias_variable([32])

h_conv1 = tf.nn.relu(conv2d(x_image, W_conv1) + b_conv1)

h_pool1 = max_pool_2x2(h_conv1)


# 두번째 Convolutional Layer

W_conv2 = weight_variable([5, 5, 32, 64])

b_conv2 = bias_variable([64])

h_conv2 = tf.nn.relu(conv2d(h_pool1, W_conv2) + b_conv2)

h_pool2 = max_pool_2x2(h_conv2)


# fully-Connected Layer

W_fc1 = weight_variable([7 * 7 * 64, 1024])

b_fc1 = bias_variable([1024])

h_pool2_flat = tf.reshape(h_pool2, [-1, 7*7*64])

h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1)


# Dropout Layer

keep_prob = tf.placeholder(tf.float32)

h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)


# Readout Layer

W_fc2 = weight_variable([1024, 10])

b_fc2 = bias_variable([10])


y_conv = tf.matmul(h_fc1_drop, W_fc2) + b_fc2


# 훈련, 측정 모델.

cross_entropy = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels=y_, logits=y_conv))

train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)

correct_prediction = tf.equal(tf.argmax(y_conv,1), tf.argmax(y_,1))

accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))


sess.run(tf.global_variables_initializer())


for i in range(10000):

  batch = mnist.train.next_batch(50)

  if i%1000 == 0:

    train_accuracy = accuracy.eval(feed_dict={

        x:batch[0], y_: batch[1], keep_prob: 1.0})

    print("step %d, training accuracy %g"%(i, train_accuracy))

  train_step.run(feed_dict={x: batch[0], y_: batch[1], keep_prob: 0.5})


print("test accuracy %g"%accuracy.eval(feed_dict={x: mnist.test.images, y_: mnist.test.labels, keep_prob: 1.0}))


'프로그래밍 > Machine Learning' 카테고리의 다른 글

tensorflow 설정  (0) 2018.08.27
기본 텐서플로우 소프트맥스 MNIST 코드.  (0) 2017.07.24
Posted by 게 르 니 카

산 안드레아스( san andreas, 2015 )

건물이 무너지거나 땅이 갈라지는 특수 효과가 볼만하다.
주인공은 어떤 상황에서도 죽지 않는 재난 영화의 공식은 감점 요인.

 

가디언즈 오브 갤럭시 2 ( Guardians of galaxy vol 2, 2017 )

오락 영화로 보면 재미있기는 한데, 마블 히어로 물 기대하고 보면 
많이 부족하다. 근데 왜 원작자는 70, 80 년대 팝에 병적으로 집착하는 건지
모르겠다. 


퓨리( Fury, 2014 )

영화가 끝나고 가슴이 먹먹해지는 영화. 너무나 사실적인
전쟁씬이 보는 내내 힘들다. 잔인해서가 아니라 전쟁의
아픔을 온 몸으로 느끼게 되는 것 같아서.
전쟁, 그 끝없는 폭력을 무엇으로 설명할 수 있을까. 

Posted by 게 르 니 카


# -*- coding: utf-8 -*-


# MNIST 데이터 다운로드.

from tensorflow.examples.tutorials.mnist import input_data
mnist = input_data.read_data_sets( "MNIST_data/", one_hot=True )

# TensorFlow 라이브러리 추가.
import tensorflow as tf

# 테스트를 위한 라이브러리 추가.
import matplotlib.pyplot as plt
import numpy as np

# 변수들 설정.
train_data = tf.placeholder( tf.float32, [None, 784] )

Weights = tf.Variable( tf.zeros( [784, 10] ) )

Bias = tf.Variable( tf.zeros([10] ) )

Hypothesis = tf.nn.softmax( tf.matmul( num_data, Weights ) + Bias )


# cross-entropy 모델 설정.

learning_rate = 0.25

num_label = tf.placeholder( tf.float32, [None, 10] )

cost = tf.reduce_mean( -tf.reduce_sum( num_label * tf.log( Hypothesis ), reduction_indices=[1] ) )

optimizer = tf.train.GradientDescentOptimizer( learning_rate ).minimize( cost )

# cost = tf.reduce_mean( tf.nn.softmax_cross_entropy_with_logits( logits=Hypothesis, labels=num_label ))

# optimizer = tf.train.AdamOptimizer( learning_rate=learning_rate ).minimize( cost )  # Gradient Descen


# 경사하강법으로 모델 학습.

batch_size = 100

with tf.Session( ) as sess :

    sess.run( tf.global_variables_initializer( ) )

    for i in range( 2000 ) :

        batch_xs, batch_ys = mnist.train.next_batch( batch_size )

        sess.run( optimizer, feed_dict={num_data:batch_xs, num_label:batch_ys} )

        if i % 200 == 0 :

            print( "{0} step, Accuracy {1} ".format( i, sess.run( cost, feed_dict={num_data:batch_xs, num_label:batch_ys} ) ) )

        

    # 학습된 모델이 얼마나 정확한지를 출력한다.

    correct_prediction = tf.equal( tf.argmax(Hypothesis,1), tf.argmax(num_label,1) )

    Accuracy = tf.reduce_mean( tf.cast( correct_prediction, tf.float32 ) )

    print( sess.run( Accuracy, feed_dict={num_data:mnist.test.images, num_label:mnist.test.labels} ) )


'프로그래밍 > Machine Learning' 카테고리의 다른 글

tensorflow 설정  (0) 2018.08.27
CNN MNIST  (0) 2017.08.08
Posted by 게 르 니 카

에일리언 커버넌트( Alien Covenant, 2017 )

기대했던 것 만큼 재미있지는 않다. 우주로 밀어내는 결말도 식상하고.
초반에 이야기 끌고나가는 것도 지루하고 데이빗의 의도도 별로
동의가 되지 않는다. 프로메테우스를 다시 보아야 겠다.


라이프( Life, 2017 )

독특한 영화이면서도 현실에서 발생 가능한 내용인 것 같다.
우주의 생명체라는 것이 어떤 형태일지, 어떤 능력, 의도를
가지고 있을 지 어떻게 알겠는가.

Posted by 게 르 니 카

2017. 7. 5. 23:53 영화

옥자, 원더우먼

옥자( 2017 )

상영 이전부터 배급사와 넷플릭스 싸움으로 말이 많았던 영화. 
봉준호 감독 영화는 왠지 나랑 잘 안 맞는다.
초반에는 아기자기한 화면이나 디테일한 설정, 귀여운 돼지 등
호감도가 계속 상승하고 있었는데 마지막 정리가 좀 밋밋했다.
기껏 황금돼지로.... 사실 하려고 하는 얘기도 별로 임팩트가 없다.
채식주의자가 되자는 걸까? 아님 거대 식품 회사의 잔인함 폭로?
다 보고 나서 개운하지 못한 미련이 남는다. 

원더우먼( 2017 )

원더우먼 캐릭터를 여권운동의 상징으로 사용하기
위해 여권 운동하던 의사가 만들었다고 한다.

그 글을 읽고 나서 봐서 그런지 전반적인 느낌이 그렇다.
거슬리지만 남자는 번식외에 필요없다는 말도 그렇고
사랑, 생명, 인류 등등 고귀한 것들만을 추구하는
당당한 원더우먼의 태도도 그렇다.

그래픽도 허술하고 액션도 약하지만, 이젠 식상해지려
하는 히어로 물에 이런 헤로인 영화 하나도 나쁘지 않다.

Posted by 게 르 니 카

자꾸 헥갈려서 정리한다.

다음과 같이 4차원 행렬을 만들어서 테스트 해보면

 

아래 첫번째 이미지의 연산은 각 axis별 데이터, 아래편은  axis 별 더하기.

raw, column, depth 나 x, y, z 등으로 접근하면 더 헥갈리는 것 같고

차라리 바깥 쪽부터의 큰 덩어리로 계산하는게 차원이 높아졌을 때도 편한 것 같다.

더하기와 같은 연산의 경우, 예를 들면 sum( 0(axis) )라고 하면 0 축으로 두 덩어리가 있으니 그대로

더하면 된다. 4*5 행렬 3덩어리이니 각 위치 60개의 숫자를 더하는 것이다. sum( 2 ) 이면 3번째 덩어리, 즉  위 그림에서 보면 원소가 5개인 벡터가 4줄 씩 1덩어리를 이루고 그 덩어리가 2개 있다. 제일 윗줄에 있는 4개의 벡터를 그대로 더하면 답의 첫 줄이 된다. [ 0+5+10+15, 1+6+11+16, 2+7+12+17, 3+8+13+18, 4+9+14+19 ] 가 된다. 

  

'프로그래밍 > python' 카테고리의 다른 글

python 버전 올리기  (0) 2017.02.07
PyQt5 1 Introduction  (0) 2017.02.03
PyQt5 0 Tutorial  (2) 2017.02.03
Posted by 게 르 니 카

불한당:나쁜 놈들의 세상( 2017 )

스토리는 나쁘지 않다. 새로운 사건이 계속 생기며
적이 바뀌는 사건의 전개도 나쁘지 않고
오히려 형사가 더 악당같은 상황도 재미있다.
한편으로는 답답하기도 하지만 끝까지 누가 살아남을까
계산이 안되는 상황도 나름 좋은 시도인 것 같다. 
화면의 색이나 구도도 특이한 게 좋다.

특별시민( The Mayor, 2017 )

시간도 배우도 아깝다. 하려는 얘기가 무언지도 모르겠고
내용도 그냥 동네 아저씨들 술자리에서 떠드는 수준이다.


분노의 질주( The Fast and The Furious:The Extreme, 2017 )

재미있게 잘 만든다. 익스트림 답게 스타일도 크고.
샤를리즈 테론이라. 싸이퍼는 살아있으니 9편에도
주적이려나. 이 씨리즈의 끝은 항상 가족끼리 모여서
기도하고 식사하면서 끝나는 것 같다.
마초스럽기도 하고 바보같기도 하고.

'영화' 카테고리의 다른 글

에일리언 커버넌트, 라이프  (0) 2017.07.15
옥자, 원더우먼  (0) 2017.07.05
타이타닉, 레옹, 번지점프를 하다  (0) 2017.06.03
임금님의 사건수첩, 존윅:리로드  (0) 2017.05.27
공각기동대,  (0) 2017.05.04
Posted by 게 르 니 카

타이타닉( Titanic, 1997 )

부분부분은 매우 자주 보았었는데 3시간 짜리를 첨부터 끝까지 본 것은
처음이다. 무엇보다 카메론 감독이 영화를 잘 만든다는 생각이 든다.
그냥 사건 사고를 다루는 신문 기사 같은 내용인데, 거기에 운명같은
사랑을 집어넣어 아련하게 만들었다. 가난을 벗어나려는 부모와 자신의
인생을 찾고 싶어하는 자식, 운명같은 만남, 귀족의 허위의식, 3등실
시민들의 희생, 욕망.  

레옹( Leon, 1994 )

오래전 대학생일 때 본 영화인데 이런 내용인지 몰랐다. 중학생 시절
명화극장의 '남과 여'를 보고 느낀 분노를 또 다시 느낄 정도였다.
처음 보았을 그 당시에는 런닝 타임 때문이었는지 미성년자와의 사랑 때문이었는지
모르겠지만 극장에서 본 영화는 그저 고독한 킬러에 대한 내용이었다.
적어도 상업적 의도로 영화를, 예술을 이런 식으로 난도질하고 훼손하면 안된다. 
감독판이라서 그런지 감독의 의도가 명확하게 나타난다.
영화는 고독한 킬러와 소녀의 사랑이 양대 축이다.
무엇보다 게리 올드맨의 연기가 인상적이다. 


번지 점프를 하다( 2000 )

이 영화가 이런 영화인줄은 조금도 상상하지 못했다.
그저 그런 멜로 드라마인줄 알았는데, 죽음을 넘어선 사랑이라니...
그야말로 지고지순한 사랑 이야기라는 것에 대해서 이견은 없지만
한편으로는 오해의 소지가 있어 보인다. 동성애의 이론적 근거 제시랄까.
다시 만나는 것도 쉽지 않겠지만 영화처럼 동성으로 만나게 되면
그럼에도 그 사랑을 이어가야 할까? 

오늘은 기분이 꿀꿀해서 좀 오래된 명작들을 골라서 보았는데
지금 정리하며 보니 세 편 다 이루어지지 못한 사랑이었네.

Posted by 게 르 니 카
이전버튼 1 2 3 4 5 6 7 8 ··· 13 이전버튼

블로그 이미지
게 르 니 카

공지사항

Yesterday
Today
Total

달력

 « |  » 2025.1
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31

최근에 올라온 글

최근에 달린 댓글

최근에 받은 트랙백

글 보관함