owned this note
owned this note
---
tags: cofacts, meeting note
GA: UA-98468513-3
---
20250331 會議記錄
=====
:::info
- [所有會議記錄](https://g0v.hackmd.io/@mrorz/cofacts-meeting-notes/)
- 線上出席:bil, Tim, mrorz, 4000, nonumpa, EJ
- https://gather.town/app/z3x18KQFgZCX8MeZ/cofacts
:::
## Badge
> EJ
> https://g0v.hackmd.io/@cofacts/rd/%2Fzx_Au6iiRN601tnMK7gx3A
- rumors-api update https://github.com/cofacts/rumors-api/actions/runs/13367250189/job/37327636532?pr=357
- rumors-site update
- UserPageHeader
- Avatar
## CCPRIP
### [Op] Automatic takedown
- Article & replyrequest --> 已開票 https://github.com/cofacts/takedowns/issues/192
- Web 送出的時候用 turnstile 偵測 bot --> 已開票 https://github.com/cofacts/rumors-site/issues/598
- takedown detect by openai https://github.com/cofacts/takedowns/pull/160
- added langfuse dataset test
- [diff](https://github.com/cofacts/takedowns/compare/55817652004f861cf416a4346cf6b8b5475b2725..d36874bc82e9e68db8396a304816db7b0d15e524)
### [Comm] LLM transcript
- 最近幾天 cost 與 projection 比較低,Total cost on March 預計為 247USD
- 主費用在 3/8 Clickhouse incident 墊高 50USD。只看 Vertex AI 的話 breakdown 為 80USD 
- 仍在 [3/17 預測](https://g0v.hackmd.io/@cofacts/meetings/%2FvplohTE0RoqMuV6y2JFhnA)的 100USD/mo 以內,符合預期。
## Langfuse update
Clickhouse issue
- [外面的文件](https://chatgpt.com/share/67d12291-0048-800b-9a9e-b0c7eae6e45c)說 `<trace_log remove="1"/>` 可以 disable log
- 但實際上 trace log 還是持續變大
- [Clickhouse 官方文件](https://clickhouse.com/docs/operations/configuration-files#merging) 是說 `remove` 是移除 config
- 所以如果 trace log 是本來就會有的,`remove` 並不會沒 log
- 修正:設定 <trace_log> 的 retention 成 1 天
---> 可以讓 log 變小,但只要 log 有數 MB,MergeTreeBackgroundExecutor 就會一直 memory exceeded error
- 再修正:`trace_log`, `text_log`, `opentelemetry_span_log` retention 調整到 1 hour
- Gemini DeepResearch 結果: https://docs.google.com/document/d/15YmvlYu_nvqipA2as9S6bkUay8f_L3FmuHM49VXRIjc/edit?usp=sharing
- 大松時觀察到 `max_concurrent_queries` = `4` 會阻擋實驗,故調整到 `16`
- 現在:
```
SELECT
database,
`table`,
formatReadableSize(sum(bytes_on_disk)) AS total_size
FROM system.parts
WHERE active
GROUP BY
database,
`table`
ORDER BY sum(bytes_on_disk) DESC
Query id: 46b3deb2-86c8-4a92-9993-cb3af8901a86
┌─database─┬─table────────────────────┬─total_size─┐
1. │ system │ metric_log │ 48.45 MiB │
2. │ system │ asynchronous_metric_log │ 26.01 MiB │
3. │ default │ observations │ 10.05 MiB │
4. │ system │ part_log │ 9.89 MiB │
5. │ system │ query_log │ 7.01 MiB │
6. │ default │ traces │ 6.61 MiB │
7. │ system │ processors_profile_log │ 3.33 MiB │
8. │ default │ event_log │ 3.08 MiB │
9. │ system │ query_views_log │ 1.08 MiB │
10. │ system │ error_log │ 803.41 KiB │
11. │ default │ scores │ 315.02 KiB │
12. │ system │ asynchronous_insert_log │ 296.37 KiB │
13. │ system │ query_metric_log │ 137.81 KiB │
14. │ system │ trace_log │ 60.79 KiB │
15. │ system │ text_log │ 46.92 KiB │
16. │ system │ text_log_0 │ 9.06 KiB │
17. │ system │ opentelemetry_span_log_0 │ 1.09 KiB │
18. │ default │ schema_migrations │ 618.00 B │
19. │ default │ project_environments │ 386.00 B │
└──────────┴──────────────────────────┴────────────┘
```
- Errors:
> 2025.03.31 10:45:22.857362 [ 140 ] {fe667f77-615a-41e2-afee-37771bcac8ba::202503_17265_25490_276} <Error> virtual bool DB::MergePlainMergeTreeTask::executeStep(): Exception is in merge_task.: Code: 241. DB::Exception: (total) memory limit exceeded: would use 1.93 GiB (attempt to allocate chunk of 4376272 bytes), current RSS 561.12 MiB, maximum: 1.93 GiB. (MEMORY_LIMIT_EXCEEDED), Stack trace (when copying this message, always include the lines below):
>
> 2025.03.31 10:45:22.857595 [ 140 ] {} <Error> MergeTreeBackgroundExecutor: Exception while executing background task {fe667f77-615a-41e2-afee-37771bcac8ba::202503_17265_25490_276}: Code: 241. DB::Exception: (total) memory limit exceeded: would use 1.93 GiB (attempt to allocate chunk of 4376272 bytes), current RSS 561.12 MiB, maximum: 1.93 GiB. (MEMORY_LIMIT_EXCEEDED), Stack trace (when copying this message, always include the lines below):
- 想法
- 把所有 log 都設定 retention,再看看會不會有 MergeTreeBackgroundExecutor 的 memory limit exceeded
- 現在已經降到跟 Langfuse table 一樣的數量級了。如果還會有 memory limit exceeded,或許真要升級主機?
- --> 下一個 level: 8GB ram, 40GB/ram
## Deep research 案例
https://hackmd.io/@mrorz/B1ul5U86-/https%3A%2F%2Fg0v.hackmd.io%2F5I1_NiRTTiu2dvlOZh3B6w%3Fview
- 放小聚?
- 可以在進階培訓課,塞小聚有點多 [name=bil]
- 包含認知上也會需要進階
- 十位以內的場合
- 討論怎麼跟 gemini 溝通
8 月的培訓 target 來過的人,新課程!
- 4~6 月蒐集 case
- 透過 AI reply 寫查核回應
- 透過 Gemini Deep Research
- 可以 5 人內線上試講
---
做進 Cofacts:公共編輯室(with AI)or 私有聊天室?
- 公共編輯室會跟「我想補充」有點重疊 [name=mrorz]
- 公共:觀摩其他人如何跟 AI 互動。不確定使用者是否願意讓人觀摩? [name=orz]
- 個人 gemini 如果想找人接手,可以 export to google docs 然後貼進「我想補充」[name=mrorz]
- 接近 Wikipedia? [name=Tim]
- 大家看了編輯室的內容後自己寫回應 [name=mrorz]
:::success
Follow-up:人機協作進階課程
:::
## 謠言惑眾獎
https://www.mygopen.com/p/award2025.html
- 4/2 ~ 4/11
- 4/2: FB + LINE voom + LINE rich menu
## 大松檢討
https://g0v.hackmd.io/@cofacts/meetings/%2FV0VdLYytThuXr2A6nEgaYg
- 喬閔:演講聽眾變成貢獻者,很鼓勵人 [name=bil]
- 感謝 nonumpa 照顧
- https://github.com/cofacts/rumors-site/issues/309
### LLM 改寫回應
> Hi各位
> 我是昨天在友愛青年黑客松上報告調課系統的SkyWind~
> 我想補充我昨天對機器人套一層LLM來修飾語氣想法
> 我覺得或許可以加上一些心理學的技巧
> 比如說同理傳假訊息的人(但並不認同)
> 或許這樣可以讓他們更容易接受、也更容易走出認知失調?
> 就是我昨天跟cofacts團隊討論
> 因為在查證時志願者不一定會對查證的語氣進行微調
> 所以或許可以在機器人端,把查證的訊息先經過一次語氣調整,再發送到群組
> [name=skywind]
- 1:1 方面,好像可以新增 call to action 請使用者轉回到群組、問他們要不要 LLM 修飾語氣 [name=mrorz]
- 
- LIFF 裡面預覽分享狀況,提供「修改語氣」、「變短」等
- 分享:開一個 LIFF 微調,最後用 LIFF [share target picker](https://engineering.linecorp.com/zh-hant/blog/share-target-picker-liff) 傳回原群組
- 好處:可以附上 card 收回覆(見過往討論: https://g0v.hackmd.io/@cofacts/meetings/%2F0RX4MsjRRJmBqJSKVilWMA#Share-%E5%8D%A1%E7%89%87 )
- 用量? [name=bil]
- 應該不會很多,這裡藏得很深 [name=mrorz]
- 可以嘗試看看 [name=bil]
- 用美玉姨的時候,會貼一個很大的圖塊說是假的,讓長輩來說太過直接,所以就被請出去,也有人退群 [name=Tim]
- 即使是人工寫「感謝分享,但是網路上有不一樣的說法(然後貼上查證原文)」,長輩就已經在忍受這個情形了 [name=Tim]
- 希望使用者能設定回應形式,不要把整段澄清貼上來
- 表情符號或連結,有興趣的點進去看就好,不會是一整篇直球對決
- 也能呈現網傳訊息有不同意見,達成效果
- 可以看一下最近 Cofacts 在群組觸發的頻率 [name=mrorz]
- 可以在 LIFF 裡面選擇要呈現:
- 回應全文 + feedback buttons, or
- 只有一句引言+連結到 article LIFF
:::success
- 開票,need-design https://github.com/cofacts/rumors-line-bot/issues/407
- 紀錄群組
:::
2