顧客の意見 vs. 自分の考え
『イノベーションのジレンマ』のクリステンセンの発見を、簡単にまとめると:
失敗した企業は、新しいアイディアを無視したわけではなく、それとは全く反対に、多くの場合、問題になっているテクノロジーを率先して開発してはいる。マーケットリーダーなのだから当然と言えば当然だ。でも市場に出さなかった。なぜか? 彼らの顧客が新製品に反対したか、無関心だったから。
「必要がない」「特徴が分からない」「我々が探しているものではない」「無意味な考えに研究開発資金を無駄にするな」というようなことを顧客は言う。
シュガート、マイクロポリス、プリアム、クアンタム、ウエスタンデジタルなどといったハードディスクメーカーは、残念ながら顧客の意に従うというマーケティングのベストプラクティスの正しさを信じたために、非常に大きな犠牲を払った。
つまり「顧客は常に正しいどころか、企業の死神にもなる」ということだ。
顧客が常に正しいわけではなくても、常に間違っているわけでもない。正しい時と間違っている時がある、ということなのだから、結局事業責任者なりマーケターなりの判断がそこに常に介入してくる。
クリステンセンの本を読んでから、部下から相談されて「お客さんがそう言っているんだったら、そうしたら?」という言葉は使わないようにしている。顧客からの意見も重要なインプットだが、自分の考えるロジックも重要なインプットだ。これらが一致する時は意思決定に迷いはないが、不一致の場合は色々と考えても埒が明かない場合、周りと話したりする。でも多くの人が「お客さんがそう言うんだったらそうしたらいいんじゃないの?」と大して考えもせずに言ってくる。そうした人は、私の場合「相談リスト」から外されていく。
意見が分かれるような論点をちゃんと考えるという作業は疲れる。だから安易に思考節約したがる人の気持ちは分かるが、私がその人に相談するという時点で「普通のではない」ということに気付いて、ちゃんと考えてほしいものだ。逆に人から相談されることもあるが、その場で答えず「明日までに考えておくから、明日私の考えを伝える」とする場合が多い。じっくりフレームワークとか考えて、全体感のある回答をしたいから。
自分が持っている前提を疑う
目標を明確に意識すること
現実的なリスク管理
選挙と民主主義
伝記と時代背景
小学生の時にキューリー夫妻の伝記を読んだ時に、科学の発見や発明というのは命がけだな、と思った記憶がある。しかし大人になって、あらためてキューリー夫人とかの話しを読むと、当たり前だが子供の時に気付かなかったことに色々と気付かされる。
『世にも奇妙な人体実験の歴史』トレヴァー・ノートン著 文藝春秋社 2012-07-10 Smoking Ears and Screaming Teeth: A Celebration of Self-Experimenters, by Trevor Nortonという本に以下のような記述がある。
------
1903年、夫妻はノーベル物理学賞を共同受賞したが、マリーが貧血を患っていたためストックホルムの授賞式には出席できなかった。その貧血は、ラジウムによる被爆の最初の徴候だったかもしれない。彼女は流産したばかりでもあった。
ラジウムの入ったチューブをピエールが高温になるまで熱していた際、試験管が爆発し、危険な中身が四方に飛び散った。その後、彼は視力に異常を感じ、研究に支障を来すほどの両足の激痛に悩まされるようになった。1906年、彼は馬車に轢かれ、車輪が彼の頭蓋骨を砕いた。即死だった。
マリーは悲しみに打ちひしがれたが、ついには研究に慰めを見出した。「実験室がなかったら、生きてはいけませんでした」と彼女は語っている。ピエールの跡を継いで放射線物理学教授に就任するよう、ソルボンヌ大学は彼女を招聘した。女性の大学教授就任はそれまで先例がなかったので、彼女は最初の数年間は非常勤講師として大学に勤め、その後教授に昇格した。1911年、彼女は再びノーベル賞を受賞し(今回は化学賞)、二部門でノーベル賞を受賞した最初の人物となった。それでも、彼女はフランス科学アカデミーの会員には選ばれなかった。それは結局のところ、彼女が女性だったからである。
------
歴史上の出来事にはすべて当時の社会的コンテクスト(文脈)というものがある。科学的発見もそうだし、絵画もその絵が描かれた時代的背景というものがある。そういう背景情報を理解してその人物を理解しないといけないのだろう。
伝記は子供の頃に読むものだと思っていたが、大人になってからは大人になってからの伝記の読み方というものがある、ということを考えさせられました。
人工知能考:いかに悪人がAIを使って悪さをさせないかが大切。
先日、人工知能(AI)の勉強会に参加した。私の問題意識は簡単に書くと:
・AIという技術そのものは善でも悪でもない。包丁や核兵器そのものが善でも悪でもないの同じ。使う人によって善にも悪にもなりうる。
・つまりAIを使って悪事をなそうとする人々(ISとかアルカイダとか)がいかにしてAIを使って悪事をなそうとするのを阻止するか、というのが問題だ。
・核兵器の場合は、作り方の情報とかは簡単にネット上で入手できる(らしい)が、実際に核兵器をテロリストらが作れないのは、濃縮ウランを入手するのが極めて困難だからだ。
・AIの場合は、何がこの「濃縮ウラン」に相当するものなのか、分かりにくい。
・AIのアルゴリズム自体はおそらく簡単に入手できると思われる。ネット経由で入手できるか、ISがAI研究者を誘拐するか勧誘するかすれば、彼らの頭の中のアルゴリズムを入手することも比較的容易だろう。
・しかし現状入手が難しいのは、AIを実用的なレベルで動かすこと(計算できること)ができるほどのcomputing powerを持つスーパーコンピューターというハードだろう。これはとてつもなく高価だし、輸出規制とか色々厳しい。
・それでもムーアの法則通りに計算能力が高まり続けて行ったら、10年後とかには今のスパコン並みの計算能力がノートパソコンレベルでも可能になっているかもしれない。
・となると、悪人にとってアルゴリズムだけでなくハードウェアも比較的入手が容易になってしまっていると思われる。
・悪人がAIを使って悪さをするのを抑止するには、善人が持つAIが、悪人が持つAIを常に圧倒的に上回るソフトとハードを持ち続ける、ということなのかもしれない。