こぼれネット

企業(保険会社を含む)、政府機関等が、民間から"定量値(得点)"をつけて批判される"くらいの脅威を与えないと、「意図的に内容が分からないように書いているんじゃないか」と思われるような書類は、これから増えるばかりです。

社内の管理部門の書類、行政から送付されてくる書類、そして保険会社の保険商品の説明書は
The documents from internal management departments, the documents sent by government agencies, and the brochures for insurance products are

―― 意図的に内容が分からないように書いているんじゃないか
— almost written deliberately to make the content incomprehensible,

と思えるほどの、困難さです。
to the point where I genuinely feel that way.

というか、あれは"不親切"を超えて、"悪意"を感じるほどです。
Honestly, they go beyond “unfriendly” and verge on feeling “malicious.”

-----

私、新人のころから今に至るまで、『読み手が分からない資料を書くと、叱られる』という仕事をしてきたので、こういう資料を見ると、腹が立つのです。
Since my rookie days, I have worked in an environment where “you get scolded if you write documents the reader cannot understand,” so seeing documents like these really irritates me.

『テクニカルライティングが、常に正義』とは言いませんが、"背景"→"目的"→"狙い(依頼事項)"、と、短文で明解に書かないと、上司に叱られました。
I won’t say “technical writing is always justice,” but unless I clearly summarize “background → purpose → intent (requested action)” in short sentences, my boss would reprimand me.

もちろん、"正確"で"網羅性"を担保していることが、必要ではあるのですが、それは主文の後に回すとか、付録に回すとか、そういう工夫をしないと、叱られました。
Of course, ensuring “accuracy” and “completeness” was required, but we were told to move that content to the later sections or appendices; otherwise, we were scolded again.

-----

で、最近の私が何をやっているかというと、
So, what I have been doing recently is this:

―― 生成AI(ChatGPT)に書類を読ませて、その後に質問をする
— letting a generative AI (ChatGPT) read the document and then asking it questions afterward.

という形式を取っています。
That is the approach I use.

スキャナか写真でキャプチャして、そこからドローソフトを使って「ヤバい情報(個人情報とか組織名称)」を削除した後に、ChatGPTに投げてから、ChatGPTに質問をするわけです。
I scan or photograph the document, delete the “dangerous information” (personal data, organization names, etc.) using a drawing tool, send it to ChatGPT, and then ask ChatGPT questions.

『この書類は何を言っているのか、1フレーズで記載して』
“Tell me what this document is saying in one phrase.”

『で、私の場合は、どこにどう書けばいいの?』
“And what exactly should I write, and where?”

というような質問をすれば、不明なことはChatGPTが逆に尋ねてくるので、それに答えれば、大体作業が終わります。
If I ask questions like these, ChatGPT asks for clarification on unclear points, and by answering them, the task is mostly finished.

-----

無論、これは正確さにおいて怪しいです。実際に、これで痛い目にあったこともあります。
Of course, the accuracy is questionable, and in fact, I have gotten into trouble because of this.

(ChatGPTの言うとおりに書類を提出したら、自分の意図せぬ業務形態になっていて、上司のチェックで助かった、という事件など)
(For example, I submitted a document exactly as ChatGPT suggested, only to end up committed to a work arrangement I never intended—my supervisor’s review saved me.)

それでも、『分けが分からんまま、書類を書く』よりはストレスはないですし ーー とにかく早い。
Even so, it’s far less stressful than “writing documents without understanding them,” and—above all—much faster.

こういう風にChatGPTを使っている人は多いと思います。
I imagine many people use ChatGPT this way.

なるほど、これからは「恐しく分かりにくいけど、全部内容を突っ込んだ書類」を提出してくる管理部門または行政や保険会社は、
I see—in the future, management departments, government agencies, and insurance companies that submit “horrifyingly obscure but fully stuffed documents.”

―― エンドユーザが生成AIの使用を前提とする
— will assume that end users rely on generative AI,

として、これから平気で理由の分からない書類を作成できる時代になる、という流れですね。
and thus freely produce documents whose logic is unfathomable.

まあ、多くの人が助かるのであれば、それはそれで良いことだと思います。
Well, if this ends up helping many people, that’s not entirely bad.

-----

しかし、
However,

―― エンドユーザが、そういうこと(キャプチャ、画面修正、生成AIの投入等)をしなくてすむように、最初から簡潔かつ明瞭な資料を作れよ
— make the documents clear and concise from the beginning so that end users don’t have to do scanning, redaction, and AI processing!

とは思うんですよね。
That’s honestly how I feel.

テクニカルライティングを、現役中に、ずっとうるさく言われ続けた私としては、なんか釈然としないんですよ。
As someone who was constantly harassed about technical writing during my career, I can’t help but feel unsatisfied.

せめて、『分かりにくい資料を作った部署や本人』に対して、ペナルティが科せられる、というくらいの仕組みはないものか、と思います。
At the very least, I wish there were a system in which “the department or person who produced the incomprehensible document” is penalized.

ChatGPTが、
If ChatGPT were to output something like,

『あなたの貼付した書類と同じものと思われるものが、あなたの他にも1000人近い人が、私に説明を求めていました』
“Nearly 1,000 other people have asked me to explain what appears to be the same document you just uploaded.”

てコメントを出して貰って、そのコメントを、書類の送付元に連絡してやる、くらいの、クレームは付けてやりたいなぁ、と思います。
I would love to take that comment and send it straight back to the document’s issuer as a complaint.

-----

というか、「行政文書の可読性評価」をChatGPTにやらせてみるのはどうでしょうか。
Actually, how about letting ChatGPT evaluate the readability of government documents?

―― この書類、普通の人に可読可能な文章になっていると思う?
— “Do you think this document is written in a way that an ordinary person can read?”

とか
or

―― この書類の『読み易さ』に対して点数をつけて下さい。あとで発送元に知らせますので。
— “Please assign a readability score to this document. I will inform the sender later.”

とかを、ChatGPTに聞いて、そのChatGPTの点数を発送元に送りつけてやればいい。
Ask ChatGPT these questions and send the scores back to the sender.

-----

比較対象として、過去の税金関係の部署ごとに得点を付けて、『あんたんところ、他の部署より劣っているぜ』と明示的に教えてやれば効果抜群でしょう。うん、私のブログで公開してもいいな。
If I assigned scores to past tax-related departments and explicitly told them, “Your department is worse than the others,” it would be highly effective. I could even publish it on my blog.

企業(保険会社を含む)、政府機関等が、民間から"定量値(得点)"をつけて批判される"くらいの脅威を与えないと、「意図的に内容が分からないように書いているんじゃないか」と思われるような書類は、これから増えるばかりです。
Unless companies (including insurance firms) and government agencies feel the threat of being criticized by the public through “quantitative scores,” documents that seem “deliberately incomprehensible” will only continue to increase.

モバイルバージョンを終了