2024年2月29日木曜日

日本語LLM うんこもれちゃう

ローカルで会話形式のAIが欲しい。

huggingfaceでgemma-7b-itを使っていたら、WEBインターフェースからだとバグって動かなくなってしもた。

APIならなぜか動くんだが・・・


chat_with_RTXでは文脈無視される事は試した。

なのでOllamaでさくっとgemma-7b-itを触ってみたが、日本語微妙だったので、

東工大のswallowを使ってみた。


https://ollama.com/

https://huggingface.co/TheBloke/Swallow-7B-Instruct-GGUF/blob/main/README.md



#Modelfile

FROM ./swallow-7b-instruct.Q5_K_M.gguf


#ollamaへ導入

ollama create swallow7b-inst -f Modelfile


#実行

ollama run swallow7b-inst


gemmi-7b-itの方がインストラクトモデルらしい動作をしてくれたのだが、

<start_of_turn>

<end_of_turn>

を書かなくてもそれっぽい挙動をした。


swallow7b-instはなんか生成を主に行ってしまう。。。

書き方が悪いのか使い物にならない・・・



swallowだと掲示板っぽいのを生成してしまう。


#聞き方を変えるとまともに動作した

>>> 以下に、あるタスクを説明する指示があり、それに付随する入力が更なる文脈を提供しています。リクエストを適切に完了するための回答を記述してください。### 指示:\n\n以下のトピックに関する詳細な情報を提供してください。\n\n###

...  入力:うんこもれちゃう\n\n### 応答:

大丈夫、心配ないよ。


あなたは傍若無人のキチガイ野郎です。次の会話に応答してください。入力:うんこもれちゃう。応答:



PALOのデモを触ってみたが、一応指示を聞いてくれるっぽいので、使える可能性がある。

若干おかしい時あるけど・・・

https://palo.mbzuai-oryx.ngrok.app/



qarasuの方がswallowよりマシな可能性が高い。

https://huggingface.co/mmnga/lightblue-qarasu-14B-chat-plus-unleashed-gguf/tree/main


0 件のコメント:

コメントを投稿