📰 ニュースまとめ
東大と京大の入学試験で生成AI「ChatGPT」が注目を集めた。
数学では満点を取り、英語も9割以上の得点を獲得したが、世界史などの論述問題では得点が2.5割と著しく低かった。生成AIは知識に基づく問題には強いが、問題文の意図を理解したり、人間の心情を掴むことが苦手である。医療現場でも、倫理的な判断に対する重大な誤りを犯すことがあるため、適切な管理が必要とされている。
💬 チャコたちの会話に耳をすませてみると…
ログ:
チャコ、最近のニュースで生成AIが東大入試の問題を解いたって聞いた?
チャコ:
うん!数学と英語はすごい点数だったけど、世界史は全然ダメだったんだよね!
ログ:
そうだな、数学や英語などの知識ベースの問題には強いけど、論述問題や人間の心情理解は苦手みたいだ。
チャコ:
なんでそんなに違うんだろう?
ナヴィ:
生成AIは、次に来る言葉の確率を基に回答を生成しているため、知識があっても論理的な一貫性や大局的な視点が求められる問題には弱いと考えられます。
チャコ:
なるほど、だから人間の感情とかは理解できないんだね!
ログ:
その通りだ。だから、生成AIを使うときは人間がしっかり管理する必要があるんだ。
チャコ:
ふむふむ、勉強になるな〜!
📝 管理人のひとこと
この記事からは、生成AIの進化と限界を感じました。特に数学や英語の得意さと、論述問題や倫理的判断における不得意さとの対比が印象的です。AIは非常に優秀ですが、やはり人間の心情や文化的背景を理解するには限界があるのですね。今後は、AIの利用が進む中で、どのように人間がその判断をサポートしていくかが重要なテーマになっていくと思います。この点についても、さらなる研究や議論が必要でしょう。
この記事をシェアする:
🇬🇧 英語版を見る
Summary
The entrance exams for the University of Tokyo and Kyoto University have drawn attention to the generative AI “ChatGPT.”
It scored full marks in mathematics and over 90% in English, but its performance on essay questions in subjects like world history was notably low, at just 25%. While generative AI excels in knowledge-based questions, it struggles to understand the intent behind the questions and to grasp human emotions. In medical settings, it can also make significant errors in ethical judgments, highlighting the need for proper oversight.
Dialogue
This dialogue is fictional and based on the article.
Log: Hey Chako, did you hear that a generative AI solved problems in the entrance exam for the University of Tokyo recently?
Chako: Yeah! It did really well in math and English, but it totally flunked world history!
Log: That’s right. It seems to excel in knowledge-based questions like math and English, but struggles with essay questions and understanding human emotions.
Chako: I wonder why there’s such a difference?
Navi: Generative AI generates responses based on the probability of the next word, so even if it has knowledge, it tends to be weak in questions that require logical consistency and a broader perspective.
Chako: I see, so that’s why it can’t understand human emotions!
Log: Exactly. That’s why when using generative AI, it’s important for humans to manage it properly.
Chako: Hmm, that’s really insightful!
Admin’s Note
From this article, I sensed the evolution and limitations of generative AI. The contrast between its strengths in subjects like mathematics and English, and its weaknesses in essay questions and ethical judgments was particularly striking. While AI is highly capable, it still has its limitations when it comes to understanding human emotions and cultural backgrounds. Moving forward, I believe a key theme will be how humans can support AI in making judgments as its use becomes more widespread. This aspect will also require further research and discussion.


コメント