Fixing clippy
authorDessalines <tyhou13@gmx.com>
Tue, 9 Nov 2021 22:31:28 +0000 (17:31 -0500)
committerDessalines <tyhou13@gmx.com>
Tue, 9 Nov 2021 22:31:28 +0000 (17:31 -0500)
crates/apub_lib/src/object_id.rs
crates/apub_lib_derive/src/lib.rs
src/main.rs
src/scheduled_tasks.rs

index 5464306851eaf6144da23914057a6cf18f4f3f45..cf5dfaa1e31b366b0136d8a40923bcf5c196b3fd 100644 (file)
@@ -25,7 +25,7 @@ lazy_static! {
   static ref CLIENT: Client = Client::builder()
     .user_agent(build_user_agent(&Settings::get()))
     .build()
-    .unwrap();
+    .expect("Couldn't build client");
 }
 
 /// We store Url on the heap because it is quite large (88 bytes).
index 72e00fe2b869443b33cea4fa338121a7e74f2053..d548af4c48b38fa53a5ac3d12033123a3efffdd4 100644 (file)
@@ -56,7 +56,7 @@ pub fn derive_activity_handler(input: proc_macro::TokenStream) -> proc_macro::To
     .collect();
   let attrs: &Vec<TokenStream> = &attrs
     .first()
-    .unwrap()
+    .expect("Could not decode first attribute from token stream")
     .tokens
     .clone()
     .into_iter()
index c078e7860a0cc3ac7a9d3e8f8a7a66a807c8582d..059262a0305ff8f76b89c89cfce1b1be45068eb0 100644 (file)
@@ -65,7 +65,7 @@ async fn main() -> Result<(), LemmyError> {
 
   let pool2 = pool.clone();
   thread::spawn(move || {
-    scheduled_tasks::setup(pool2);
+    scheduled_tasks::setup(pool2).expect("Couldn't set up scheduled_tasks");
   });
 
   // Set up the rate limiter
index 396c7b675f23b50ee52b9f4067933a916cf4c845..c3514d63ed5fee9f11fa355d753dad648af2379d 100644 (file)
@@ -3,14 +3,15 @@ use clokwerk::{Scheduler, TimeUnits};
 // Import week days and WeekDay
 use diesel::{sql_query, PgConnection, RunQueryDsl};
 use lemmy_db_schema::{source::activity::Activity, DbPool};
+use lemmy_utils::LemmyError;
 use log::info;
 use std::{thread, time::Duration};
 
 /// Schedules various cleanup tasks for lemmy in a background thread
-pub fn setup(pool: DbPool) {
+pub fn setup(pool: DbPool) -> Result<(), LemmyError> {
   let mut scheduler = Scheduler::new();
 
-  let conn = pool.get().unwrap();
+  let conn = pool.get()?;
   active_counts(&conn);
 
   // On startup, reindex the tables non-concurrently
@@ -21,7 +22,7 @@ pub fn setup(pool: DbPool) {
     reindex_aggregates_tables(&conn, true);
   });
 
-  let conn = pool.get().unwrap();
+  let conn = pool.get()?;
   clear_old_activities(&conn);
   scheduler.every(1.weeks()).run(move || {
     clear_old_activities(&conn);