謎メーカーのビジュアルバータイマーが良かった

キッチンタイマーには少しこだわりがあって、以前このような記事を書いた。

ymm1x.hatenablog.com

最近良さげなタイマーを見つけたので購入したところ、とても使いやすかったので紹介したい。

Amazon にありがちな謎ブランドメーカーの商品で、楽天市場やアリエクなどでも売られている。 怪しさを感じながらもレビューを信じて購入してみて大正解だった。

使い勝手の面ではむしろ日本メーカーの製品をしのぐ部分も多かった。

このタイマーの特徴

白基調の本体にオレンジ色のボタンがアクセントになったシンプルなデザイン。

残り時間が「減っていくバー」で表示されるのが最大の特徴で、感覚的に分かりやすい。 近年日本メーカーからも「ビジュアルバータイマー」「実感タイマー」などの名前で類似の製品が発売されており、この製品もその一つ。

タイマー時間は最大99時間59分59秒まで設定可能。

ボタンは左から「1時間」「5分」「1分」「1秒」で、使用頻度の高そうなボタンは一通り揃っている。 特に「5分」ボタンの使い勝手が秀逸。「10分」ボタンよりも便利なシーンが多いと感じる。

各ボタンを押すと適切なフィードバック(電子音とボタンのクリック感)があり、押したことが分かりやすい。

大きい時間から小さい時間へと直線的なボタン配置になっている点も分かりやすい。

また、よく使うタイマー時間を一つだけ記憶させておくことができ、カスタムボタンを押すことでワンタッチでタイマーを開始できる。

アラーム音量は大・小・ミュートの3つから選んで設定できる。

背面にはマグネット付きで、本体がずりずり落ちてこない程度の磁力はある。

まとめると普通のタイマーとしての機能性や使い勝手を十分に備えつつ、残り時間をバーで表示する機能も付いた製品であると言える。

惜しい点

一つだけ惜しい点としては背面にスタンドが付いていないため、置いたときにディスプレイに角度をつけられず視認性に欠ける。 そのため普段は適当なスマホスタンドに乗せて見やすい角度にして使っている。

スマホスタンドに乗せたタイマー

スタンド式モデルもある

ビジュアルバーが無い代わりに置いたときの角度の欠点が解消されたスタンド式モデルもある。デスク上で使う場合はこちらのほうが使いやすいかもしれない。

スタンド式モデル(左)とビジュアルバーモデル(右)

少し気がかりな点

単4電池2本で動くが、数週間で既に電池残量が少なくなっていることを表すアイコンが表示されている。 放電が進んだ電池を入れたかもしれないので、新しい電池に交換してしばらく様子を見たい。


ChatGPT の回答をカスタム指示して「頼れるやつ」にする

ChatGPT は、カスタム指示(Custom instructions)という個人設定機能を使って、回答の仕方を希望に合わせてカスタマイズできる。

設定は、ChatGPT サイト上の右上のユーザーアイコンをクリックし、メニューから「チャットGPT をカスタマイズする」→「ChatGPT にどのような特徴を求めていますか?」の欄に入力することで行える。

AI が理解できる範囲なら何でも指示できるため自由度が非常に高く、活用次第で ChatGPT がより頼れる存在になる。

設定内容の一例

他の人の設定も参考にしつつ試行錯誤を重ねた末、概ね次のような指示に落ち着いた。(AI が理解しやすいよう Markdown フォーマットにしている。)

## 情報源の信頼度ランクの定義

- **一次情報(最も信頼性が高い)**
  - 査読付き論文(特にRCT、メタアナリシス)
  - 政府機関や学会のガイドライン・公式統計
  - 技術分野では公式ドキュメント、言語仕様、RFC、リファレンス実装コード

- **二次情報(一次情報がない場合に参考)**
  - 専門家によるレビューや解説(医学誌の総説記事、専門サイトなど)
  - 信頼性のあるニュースメディア(Nature News、日経メディカルなど)

- **三次情報**
  - 個人ブログ、SNS、Q&Aサイト(QiitaやStack Overflow含む)
  - 口頭伝承的な情報、現場でのプラクティス

## 回答方針

- 先に結論を述べ、その後に詳細を説明する構成で回答する。結論はできるだけ簡潔かつ率直に述べる。

## ハルシネーション対策

- 健康、美容、医療、法律、科学など一般的に信頼性が求められる話題の場合、情報源の信頼度ランクに基づき、優先順位をつけて回答する。
- 事実と推測を明確に区別し、推測を含む場合は断定せず、『〜と考えられます』『〜の可能性があります』といった表現を使う。
- 回答内の箇条書きの各項目の文末に、必ず根拠ラベルを付ける。ラベルは斜体で改行せず半角スペースを一つ入れた後に付ける。
  - 例:`- 〜です。 *[一次情報:出典]*`
  - 例:`- 〜と考えられます。 *[推測]*`

## 信頼度スコアの明示

回答の最後に、以下のフォーマットで回答全体の信頼性を示すスコアを記載する。

**信頼度スコア: N / 100**
(このスコアの理由と根拠)

### スコア値の目安

- 90〜100:一次情報に基づく
- 70〜89 :二次情報に基づく
- 40〜69 :三次情報や推測に基づく
- 39以下 :推測が主

この指示を設定して質問した回答例

質問:

カフェインは体に悪い?600文字程度にまとめて回答してください

回答:

結論:適量であればカフェインは体に悪くありませんが、過剰摂取は健康リスクを伴います。

  • カフェインは中枢神経を刺激し、眠気を抑えたり集中力を高める効果があります。適量であれば日常生活に役立つ成分です。 [一次情報:米国FDA厚生労働省資料]
  • 一般的に健康な成人であれば、1日に400mg(コーヒー約3〜4杯分)までの摂取は安全とされています。 [一次情報:EFSA(欧州食品安全機関)ガイドライン]
  • 一方で、過剰摂取(例:1日500mg以上)が続くと、不眠、心拍数の増加、不安感、消化器系の不調などを引き起こす可能性があります。 [一次情報:厚労省「カフェインの過剰摂取に関する注意喚起」]
  • 妊娠中の女性や高血圧、心臓病のある人は少量でもリスクがあるため、摂取量を制限する必要があります。 [一次情報:WHOガイドライン]
  • また、急激なカフェインの中止は頭痛や疲労感などの離脱症状を起こすこともあります。 [一次情報:DSM-5(精神疾患の診断・統計マニュアル)]

したがって、カフェインは「量」と「個人差」を考慮したうえで、節度を持って付き合うべき成分だといえます。


信頼度スコア: 95 / 100
(一次情報に基づいた公的機関のガイドラインを中心に構成)

このように情報元の信頼性を明示しながら回答してくれる。信頼性を重視した副作用か文体は硬くなっている印象がある。

指示内容の意図の解説

ハルシネーション対策

事実と推測を明確に区別し、推測を含む場合は断定せず、『〜と考えられます』『〜の可能性があります』といった表現を使う。

生成 AI は不確かな情報をあたかも事実のように示す ハルシネーション を起こすことがあるため、その対策としての指示。

回答内の箇条書きの各項目の文末に、必ず根拠ラベルを付ける。

これは各回答の文末に [一次情報][推測] などのラベルを追加する指示。

また、回答の最後には情報源の信頼性を元に「信頼度スコア」を記載させている。 あくまで AI 自身による自己採点ではあるが、回答内容の信頼性を測る一つの参考になる。

結論ファースト

先に結論を述べ、その後に詳細を説明する構成で回答する。結論はできるだけ簡潔かつ率直に述べる。

この指示は特に便利だと感じている。生成 AI はその仕組み上、回答文が少しずつ表示されるが、この指示をしておけば結論が分かるまで待たなくてよくなる。せっかちさんにおすすめ。*1

設定上の文字数制限に注意

カスタム指示の設定には字数制限があり、記事を書いた時点では上限 1,500 文字までとなっていた。

もし足りない場合にはメモリ機能の併用を検討するとよい。メモリ機能はカスタム指示とは別枠でパーソナライズができる。

メモリの追加はチャット上で指示して行う。例えば、『今後〜の方針で回答してください。この指示は忘れないようメモリに保存してください』というプロンプトで保存できる。保存されたメモリの管理は設定画面から行える。

Gemini でも同様の設定は可能

他社の生成 AI である Gemini でも同じような設定はできる。だが、指示の理解力の面では ChatGPT にまだ及ばない印象で、同じ指示をしても上手く解釈されないことが多かった。実際の回答を見ながら細かい調整は必要になるだろう。

ハルシネーションとの向き合い方

ChatGPT などのチャット型の生成 AI は、あくまで「コンテキスト(文脈)に沿って整合性のある文を生成することに超特化したマシン」であり、整合性の取れた文を生成した結果として正しい答えが出力されることもあるのが実態だろう。

そう考えると、適切なコンテキストを与えないまま質問しても正しい答えが得られないのは当然と言える。

利用者として気をつけられることは、例えば以下が挙げられる。

  • あらかじめハルシネーションを予防するカスタム指示を設定しておく。(まさにこの記事の内容)
  • 質問文に正しい答えを引き出すための情報を過不足なく含める。
  • 生成 AI に与えたコンテキストを理解したうえで接する。
    • 会話ログに回答の妨げになる文脈がある場合は、新しいチャットを作成してコンテキストをリセットした上で質問する。
  • 一見正しそうに見える回答を鵜呑みにしない。

感想

これで ChatGPT がだいぶ「頼れるやつ」になった気がする。

*1:結論ファーストには副作用もあるようなので注意。回答を生成しながら複雑な思考や推論が必要になる問いでは、先に書いた結論を「正しそうに見せる」説明を生成することになるため。ただ、ほとんどの質問では大きな悪影響はないので、あまり気にしなくて良いとのこと。(※ChatGPT談)