男に対するドローン:誰が良いですか?
著者の記事
男に対するドローン:誰が良いですか?

男に対するドローン:誰が良いですか?

 

本当に準備ができて無人システムは、完全なヒト航空が交換されるがあり、コンピュータとその直接の制御下で管理人工知能が、しかし、すべての可能な状況の誤算に対処しやすくなりであると考えられています。

 

 

今まで彼の飛行機は数メートルで飛行する最初の可能なライト兄弟以来、人々は常に安全なフライトを行い、キロの数十、数百と千飛行中の航空機の完全な制御を提供することができ、特殊な機械で乗組員を交換する機会を探しています。 無人システムを実現するための最初の試みであっても、前世紀の30-40で、妙な話だが、行われている、と彼らは成功しなかったにもかかわらず、科学者やエンジニアが数十年にわたって正確に航空機を制御することを可能にするデバイスの開発に取り組んできた、そして必要はありません残りは、完全に離着陸終了の瞬間から始まる、飛行を追跡します。

まもなく、欧州の航空機メーカーは、エアバス社が特別な完全自動航空機制御システムを開発しているという報告を受けました。 クリエイターの意見では、近い将来、自動的に有人のシステムは乗組員を取り除き、それによって地球の一角から他の飛行機への飛行を可能な限り効率的に行います。 もちろん、これらのニュースは非常に肯定的ですが、コンピュータで人を置き換えることはできますか?

 

 

情報処理の面でも、非常に単純な場合は、コンピュータほとんどないに等しいが、特に、いくつかの計算上、人は二行く、コンピュータが実行されている間は、より速く、何百何千回ものであり、そのため、自動操縦システムは、独立して実行することができます人はかなり可能性が対処することができないで嵐前線を介して制御飛行。

それにもかかわらず、数週間前に、実験の科学者は人工知能システム、だけでなく質的に複雑な計算を実行することができることを示したが、はるかにゆっくり権利を働き、特に、ルートが技術の面で同じに着手することを提案した実験を実施したことにより、実施パフォーマンスの無人機を、そして人は11,1秒のタスクに対処することができれば、人工知能のシステムを搭載したコンピュータは、13,9秒のためにそれをやりました 技術的なコマンドは、それは、実際には、20%の時間差です。

 

 

コンピュータや人工知能システムは、多くのタスクで人間を超えてしまうようなレベルに達したとき、しかし、今日、最も複雑なデータセンターは、そのコアで、スーパーコンピュータが示した、間違いを犯すことに留意することが重要です事実そのすべて100%の信頼無人システムは不可能。

 

特にAvia.proためKostyuchenkoユーリー

議論は展開されています - それは、水が濡れていること、油が油であることなどを証明することです。 等が挙げられる。 それは短く....
誰もが、プロジェクトのコストがソフトウェアのコストを上回ると、すぐにその人物がコンピュータに置き換えられることは、長い間知られていました。 または、宇宙船のパイロットが最初に自動モードで実行されていることを著者が知りませんか? 人は実験としてのみ操縦することが認められています....
コンピュータは人間のパイロットよりも遅く飛んだ。 主婦のレベルでのこの比較は作者することを示しているか、についてか我々はコンピュータに基づいているプログラムの種類がわからないので、彼は....どの支払ったものを書く準備ができていたように無節操だったか理解していない、多分彼は飛行中に決めた任意のものです非飛行の問題?
主婦が質問議論どのように思い出すだけで十分:誰を鎮圧する事故の場合には、コンピュータを選択する方法を - 歳の女性、猫や子供のグループ? 彼は怒らないだろうか? 現実には、この状況は道路のルールでずいぶん前に解決されましたが。 ここでは、コンピュータのルールに従って行く....実際に同じ人物をして行きます。
まあ、コンピュータは100%に信用できないという事実について。 一つは、作者が人間のエラーや生活の中で進歩的な技術を防止することにより、人口を減少させるだけでサポーターに関連した事故の統計に興味を持っていなかったという印象を受けます。

視点から見ると、AIが人を置き換えるかどうかは可能ですが、私はそれがかなりだと思います。 実質的にすべて、進化の質問を除いて。 これを行うには、以前の世代の経験と経験に頼って、確立されたルールから逸脱する必要があります。 AIはまだこれを行うことができません。 これは彼が人に負けたものです。 したがって、AIを搭載したデバイスは遅く飛んでしまい、ルールに厳密に従い、1つのイオタをそれらから逸脱することはありませんでした。 彼はそれを遅くしましたが、人間よりも安全です。 AIが進化することを学ぶと、それからのトラブルを期待します。 彼が人に関してどのような決定を下すのか、神だけが知っている。

アナトリー、事故に関する質問は本当に主婦の問題ではありません。 これは非常に重要な問題です。 そして交通ルールはこの状況を解決しません。 人工知能は、猫、老婦人、子供のグループのいずれもが理想的には影響を受けないように、そのような決定を下すべきです。 それが破壊されたとしても、彼自身。 これはロボット工学の最初の法則です。 彼は自分自身で死ぬべきですが、生きている人の死を許さないようにしなければなりません。 したがって、武器のシステムにおける人工知能のシステムは、すべての人類にとって非常に危険です。 マシンは、どの人と一緒に生活するのか、どちらを使うのかを決めるべきではありません。 原則として! 彼女自身は、そのような状況が発生したときに死ななければならない。 自発的に、決定によって。 そうでなければ!

最初から最後の言葉までの記事はナンセンスです。

ページ

.

航空の世界で最高

ミグ25
ニュース
確認されていない報道によると、シリアの首都近郊が軍用機に撃墜された
2階